Aller au contenu principal
MEDIA
AI Act : la checklist du DSI avant l'échéance du 2 août 2026

AI Act : la checklist du DSI avant l'échéance du 2 août 2026

Kenza Zeroual
Kenza Zeroual
Experte en sécurité des systèmes d'information
28 avril 2026 16 min de lecture
Comment un DSI peut-il structurer une gouvernance de l’IA alignée sur l’AI Act, le RGPD et NIS2 ? Cartographie des systèmes, registre type, grille de risques, supervision humaine et priorisation des chantiers pour sécuriser les projets d’intelligence artificielle en entreprise.
AI Act : la checklist du DSI avant l'échéance du 2 août 2026

Cartographier les systèmes d’intelligence artificielle et qualifier les risques

Pour un DSI, l’IA en entreprise et sa gouvernance ne se résument plus à quelques expérimentations isolées. La pression réglementaire autour de l’IA en environnement professionnel transforme chaque projet en actif critique, avec des exigences de conformité et de sécurité comparables à celles des systèmes financiers. La première urgence consiste donc à établir un inventaire exhaustif des systèmes d’intelligence artificielle, qu’ils soient développés en interne ou achetés auprès de fournisseurs externes.

Cette cartographie doit couvrir les systèmes d’IA utilisés dans toutes les organisations métiers, en détaillant les modèles, les données d’entraînement, les usages opérationnels et le cycle de vie complet de chaque solution. Concrètement, le registre doit au minimum recenser : l’objectif du système, la catégorie de risque au sens de l’AI Act, les sources de données, les traitements réalisés, les interfaces exposées, les responsables métiers et techniques, ainsi que les mécanismes de supervision humaine. Un extrait de registre type pourra par exemple comporter pour chaque système : identifiant unique, description fonctionnelle, périmètre géographique, statut (prototype, pilote, production) et date de dernière revue. Les entreprises qui ont déjà structuré une gouvernance des données et une gouvernance des systèmes critiques disposent ici d’un avantage, car elles peuvent réutiliser leurs processus de gestion des risques et leurs pratiques de sécurité pour l’IA. L’objectif est de donner une place à la gouvernance de l’IA dans le même cadre que les autres systèmes, en intégrant les décisions IA dans les comités existants plutôt qu’en créant une organisation parallèle.

Une fois l’inventaire réalisé, la classification des risques doit s’appuyer sur les catégories de l’AI Act, en distinguant clairement les systèmes à risque minimal, limité, élevé ou inacceptable. Pour chaque système d’intelligence artificielle, le DSI doit évaluer le niveau de risque en fonction de l’impact potentiel sur les personnes, de la sensibilité des données et du degré d’automatisation des décisions. À ce stade, une grille d’évaluation inspirée des annexes de l’AI Act (par exemple les listes de systèmes à haut risque pour l’emploi, le crédit ou l’accès aux services essentiels) permet d’objectiver les décisions. Une matrice simple peut croiser impact (faible, moyen, fort) et probabilité d’occurrence, avec des exemples concrets de scénarios d’usage pour chaque case. Cette gestion des risques doit être documentée dans un cadre de gouvernance formalisé, avec des critères partagés entre les équipes IT, les équipes métiers, la direction juridique et la direction de la conformité.

Les systèmes à haut risque exigent une attention particulière, car ils déclenchent des obligations renforcées en matière de conformité réglementaire et de transparence. Les entreprises doivent ici articuler la gouvernance des données, la gouvernance des modèles et la gouvernance des usages pour garantir une supervision humaine effective sur les décisions critiques. Dans la pratique, cela implique de définir un cadre de gouvernance spécifique pour les systèmes d’intelligence artificielle à haut risque, avec des processus d’homologation, des contrôles de sécurité et des revues régulières du niveau de risque. Un modèle de fiche d’homologation peut par exemple regrouper : description fonctionnelle, scénarios d’usage, analyse d’impact, résultats de tests, plan de supervision et modalités de retrait du service. Une rubrique « décisions non conformes détectées » et une section « actions correctives et délais de mise en œuvre » permettent de suivre dans le temps la maîtrise des risques.

Pour les DSI, la question n’est plus de savoir si l’IA doit être encadrée, mais comment intégrer la matière gouvernance IA dans les dispositifs existants sans alourdir inutilement les processus. La gouvernance responsable de l’IA suppose de concilier protection des données, performance opérationnelle et retour sur investissement mesurable pour chaque projet. Une stratégie de gouvernance de l’IA en entreprise efficace repose ainsi sur un équilibre entre exigences réglementaires, contraintes budgétaires et attentes des métiers en matière d’innovation. À titre d’exemple, un service RH qui utilise un algorithme de présélection de candidatures devra combiner conformité AI Act (classification en système à haut risque, documentation, supervision humaine des décisions) et conformité RGPD (information des candidats, minimisation des données, droits d’accès et de recours). Dans un cas concret, une entreprise de 5 000 salariés a ainsi réduit de 20 % le temps de traitement des candidatures tout en documentant systématiquement les refus automatisés et les revues humaines associées.

Structurer un cadre de gouvernance IA aligné sur RGPD et AI Act

La convergence entre l’AI Act et le RGPD impose aux DSI de repenser la gouvernance des données et la gouvernance des systèmes d’IA comme un tout cohérent. Plutôt que de dupliquer les efforts, il devient stratégique de bâtir un cadre de gouvernance unique qui couvre à la fois la conformité réglementaire en matière de protection des données et les exigences spécifiques liées aux modèles d’intelligence artificielle. Les organisations qui ont déjà industrialisé leurs processus RGPD peuvent capitaliser sur ces acquis pour accélérer la mise en œuvre d’une gouvernance de l’IA robuste.

Concrètement, le comité de gouvernance des données peut évoluer vers un comité de gouvernance de l’IA, intégrant des représentants IT, métiers, juridiques, conformité et sécurité. Ce comité définit le cadre de gouvernance IA, valide les processus de gestion des risques, arbitre les usages sensibles et fixe les normes éthiques applicables aux systèmes d’intelligence artificielle. Les décisions prises doivent être tracées, avec une transparence suffisante pour démontrer la conformité réglementaire en cas de contrôle ou de litige. Un ordre du jour type inclura par exemple : revue du registre des systèmes d’IA, validation des analyses d’impact, suivi des incidents, arbitrage sur les nouveaux cas d’usage et décisions sur les plans de remédiation. Dans certaines grandes entreprises, ce comité se réunit mensuellement et suit un tableau de bord consolidé des projets IA, des risques critiques et des actions de remédiation en cours.

Pour les systèmes à haut risque, la documentation technique exigée par l’AI Act recoupe largement les exigences RGPD en matière de données, de sécurité et de traçabilité. Les entreprises ont donc intérêt à mutualiser les registres de traitements, les analyses d’impact, les politiques de protection des données et les procédures de supervision humaine dans un référentiel commun. Une gouvernance IA bien conçue permet ainsi de réduire les redondances, de clarifier les responsabilités et d’optimiser la gestion des ressources au sein des équipes. Un modèle d’analyse d’impact peut par exemple reprendre les rubriques RGPD classiques (finalités, base légale, catégories de données, mesures de sécurité) et y ajouter des volets spécifiques IA (logique du modèle, données d’entraînement, tests de robustesse, gestion des biais). Un encadré dédié peut détailler les métriques de performance suivies (taux d’erreur, faux positifs, faux négatifs) et les seuils de déclenchement d’une revue humaine.

Les DSI doivent aussi veiller à ce que les pratiques de gouvernance des données couvrent l’ensemble du cycle de vie des modèles, depuis la collecte des données jusqu’à la mise hors service des systèmes d’intelligence artificielle. La gouvernance des données et la gouvernance des modèles doivent intégrer des contrôles de qualité, des mécanismes de revue des biais et des procédures de retrait en cas de dérive des performances. Dans ce contexte, un accompagnement structuré à la conformité RGPD, comme celui décrit dans les retours d’expérience sur l’accompagnement à la conformité RGPD pour les PME, peut servir de modèle pour déployer une gouvernance IA à l’échelle de l’entreprise. Un cas pratique de crédit client illustre bien cette approche : un modèle de scoring devra être documenté, testé régulièrement, assorti de seuils d’alerte et d’un processus clair de réexamen humain des refus. Dans un établissement financier, ce type de dispositif a permis de réduire de moitié le nombre de contestations de décisions de crédit en deux ans.

Enfin, le cadre réglementaire européen impose une articulation fine entre les obligations IA, les exigences de cybersécurité et les futures contraintes liées à NIS2. Les DSI doivent anticiper cette convergence en intégrant la sécurité des systèmes d’intelligence artificielle dans leurs politiques globales de sécurité des systèmes d’information. Une gouvernance de l’IA mature ne se limite pas à cocher des cases de conformité, elle vise à renforcer la confiance des clients, des collaborateurs et des partenaires dans les usages de l’IA au sein de l’organisation. Un calendrier de conformité consolidé, qui aligne les jalons AI Act, RGPD et NIS2, facilite la priorisation des projets et la mobilisation des équipes. Ce planning peut préciser pour chaque trimestre les livrables attendus (mise à jour des politiques, audits, formations, tests de résilience) et les responsables désignés.

Prioriser les chantiers opérationnels : documentation, sécurité et supervision humaine

À moins de trois mois de l’opposabilité des obligations pour les systèmes d’IA à haut risque, les DSI doivent hiérarchiser les chantiers opérationnels sans se perdre dans les débats juridiques. La priorité va à la documentation technique des systèmes d’intelligence artificielle critiques, à la mise à niveau des mesures de sécurité et à l’organisation de la supervision humaine sur les décisions sensibles. Cette approche pragmatique permet de transformer la gouvernance de l’IA en plan d’action concret plutôt qu’en exercice théorique.

Sur le volet sécurité, les systèmes d’IA doivent être intégrés dans les politiques de gestion des vulnérabilités, de contrôle d’accès et de journalisation au même titre que les autres systèmes d’information. Les entreprises doivent vérifier que les flux de données, les API et les modèles sont protégés contre les attaques spécifiques à l’IA, comme la corruption de données d’entraînement ou les tentatives d’exfiltration de modèles. Les retours d’expérience sur la gestion unifiée des terminaux, par exemple via une approche de MDM et device management, montrent l’intérêt d’une vision consolidée des systèmes pour piloter la sécurité à grande échelle. Dans une organisation multisites, cette centralisation a permis de réduire de 30 % le temps de détection et de correction des vulnérabilités affectant des modèles d’IA déployés sur plusieurs environnements.

La supervision humaine constitue un autre pilier de la gouvernance responsable de l’IA, en particulier pour les systèmes à haut risque qui impactent directement les personnes. Les DSI doivent s’assurer que les équipes métiers disposent des compétences, des outils et des processus nécessaires pour comprendre les décisions des systèmes d’intelligence artificielle et intervenir en cas d’anomalie. Cette supervision ne doit pas être symbolique, elle doit s’inscrire dans un cadre de gouvernance clair, avec des responsabilités définies et des indicateurs de suivi partagés. Une checklist opérationnelle peut inclure : critères de déclenchement d’une revue humaine, délais de traitement, documentation des décisions corrigées et retour d’expérience vers les équipes techniques. Un exemple de procédure prévoit par exemple une revue systématique des décisions automatisées jugées « limites » par les utilisateurs métiers, avec un taux de réévaluation suivi mensuellement.

Les obligations de traçabilité imposent aussi de revoir les pratiques de journalisation, de conservation des données et de documentation des modèles, afin de pouvoir expliquer a posteriori les décisions prises par les systèmes d’IA. Les organisations qui anticipent ces exigences pourront mieux défendre leurs choix en cas de contrôle, tout en améliorant la qualité de service client grâce à une transparence accrue sur le fonctionnement des algorithmes. Dans cette perspective, les analyses sur la transposition de NIS2, comme celles consacrées à la préparation à NIS2 en France, offrent un cadre utile pour aligner sécurité, conformité et résilience opérationnelle. Un plan de journalisation détaillé peut préciser les événements à tracer (données d’entrée, version du modèle, paramètres clés, décision produite) et les durées de conservation associées.

Enfin, la question du retour sur investissement reste centrale pour les DSI qui doivent arbitrer entre innovation et contraintes budgétaires. Une gouvernance IA bien structurée permet de sécuriser les investissements, de réduire les risques de non-conformité et de renforcer la confiance des parties prenantes dans les projets d’IA. En traitant la gouvernance de l’IA comme un levier de performance durable plutôt que comme une simple obligation réglementaire, les entreprises transforment une contrainte en avantage compétitif tangible. Un échéancier priorisé aide à concrétiser cette ambition : à moins de trois mois, finaliser l’inventaire des systèmes d’IA, identifier les cas à haut risque et lancer la mise à jour des politiques de sécurité ; à six mois, déployer les modèles de registre et d’analyse d’impact, formaliser la supervision humaine et organiser les premiers audits internes ; à douze mois, stabiliser le comité de gouvernance, industrialiser les revues de risques, intégrer les exigences AI Act, RGPD et NIS2 dans les processus projets et mesurer régulièrement les gains de performance et de conformité. Certaines organisations suivent déjà des indicateurs comme le taux de projets IA validés du premier coup en comité ou la baisse des écarts de conformité détectés lors des audits annuels.

Statistiques clés sur la gouvernance de l’IA en entreprise

  • Selon une enquête de Deloitte 2023 sur l’IA en entreprise, moins de 30 % des organisations déclarent disposer d’un cadre de gouvernance de l’IA formalisé couvrant à la fois les données, les modèles et les usages (source : étude « State of AI in the Enterprise, 5th Edition », Deloitte, 2023, chapitre sur la gouvernance, p. 18-22).
  • D’après le rapport « AI Index 2024 » de l’université de Stanford, plus de 60 % des grandes entreprises interrogées citent la conformité réglementaire et la gestion des risques comme frein principal au déploiement de nouveaux cas d’usage d’IA, en particulier dans les secteurs fortement régulés (source : « AI Index Report 2024 », Stanford HAI, section Corporate AI, p. 140-155).
  • Une étude de la Commission européenne publiée en 2022 sur la préparation à l’AI Act indique qu’environ un tiers des organisations concernées ont déjà commencé à cartographier leurs systèmes d’intelligence artificielle et à mettre en place des registres dédiés, souvent en s’appuyant sur leurs registres de traitements RGPD existants (source : Commission européenne, « Impact Assessment accompanying the proposal for an Artificial Intelligence Act », 2022, partie 6, p. 95-110).

Questions fréquentes sur la gouvernance de l’IA en entreprise

Comment prioriser les systèmes d’IA à traiter en premier ?

Les DSI doivent commencer par les systèmes d’intelligence artificielle qui combinent un fort impact sur les personnes, une automatisation élevée des décisions et une exposition réglementaire importante. Cette approche par le risque permet de concentrer les efforts de documentation, de sécurité et de supervision humaine là où la valeur et la criticité sont les plus fortes. Les systèmes à faible risque peuvent être traités ensuite, avec des exigences allégées mais cohérentes avec le cadre global de gouvernance.

Comment articuler AI Act, RGPD et NIS2 dans un même cadre de gouvernance ?

La clé consiste à bâtir un cadre de gouvernance unifié qui couvre les données, les systèmes et les usages, plutôt que de gérer chaque texte séparément. Les exigences communes, comme la protection des données, la sécurité des systèmes et la traçabilité, doivent être mutualisées dans des processus transverses pilotés par le DSI. Les spécificités de chaque réglementation viennent ensuite se greffer sur ce socle, via des contrôles complémentaires et des responsabilités partagées avec les fonctions juridique et conformité.

Quel rôle concret pour la supervision humaine des systèmes d’IA ?

La supervision humaine ne se limite pas à valider ponctuellement des décisions, elle implique une compréhension réelle du fonctionnement des systèmes d’intelligence artificielle et de leurs limites. Les équipes métiers doivent pouvoir suspendre, corriger ou contester les décisions automatisées lorsque les résultats semblent incohérents ou injustes. Pour cela, les DSI doivent fournir des interfaces explicables, des tableaux de bord de suivi et des procédures claires d’escalade en cas d’incident.

Comment mesurer le retour sur investissement d’une gouvernance IA renforcée ?

Le retour sur investissement d’une gouvernance de l’IA se mesure à la fois par la réduction des risques de non-conformité, la diminution des incidents opérationnels et l’amélioration de la confiance des clients et des régulateurs. Les DSI peuvent suivre des indicateurs tels que le nombre d’incidents liés à l’IA, le temps de traitement des audits ou la satisfaction des métiers sur la qualité des décisions automatisées. À terme, une gouvernance robuste permet aussi d’accélérer le déploiement de nouveaux cas d’usage, en offrant un cadre éprouvé pour évaluer et sécuriser les projets.

Quelles compétences renforcer en priorité dans les équipes DSI ?

Les équipes DSI doivent combiner des compétences techniques en intelligence artificielle, en sécurité des systèmes et en gestion des données avec une compréhension fine des enjeux réglementaires. Les profils capables de dialoguer avec les métiers, de traduire les exigences de conformité en exigences techniques et de piloter des processus de gouvernance transverses deviennent particulièrement stratégiques. Investir dans ces compétences permet de faire de la gouvernance IA un levier de transformation plutôt qu’un simple centre de coûts.