Conformité IA Act
Le premier cadre juridique mondial sur l'intelligence artificielle — qui impose des obligations proportionnées au niveau de risque de chaque système d'IA.
Sanctions maximales
Niveaux de risque
États membres
Année d'adoption
Qui est concerné ?
Fournisseurs de systèmes d'IA
- Développeurs de systèmes d'IA
- Éditeurs mettant un système d'IA sur le marché UE
- Fournisseurs de modèles d'IA à usage général (GPAI)
- Importateurs et distributeurs de systèmes d'IA
- Fabricants intégrant un système d'IA dans un produit
Déployeurs de systèmes d'IA
- Entreprises utilisant des systèmes d'IA en cadre professionnel
- Administrations publiques déployant des systèmes d'IA
- Organisations utilisant l'IA pour la prise de décision
- Employeurs utilisant l'IA en RH (recrutement, évaluation)
- Opérateurs d'infrastructures critiques intégrant de l'IA
Le Règlement s'applique à tout acteur mettant sur le marché, mettant en service ou utilisant un système d'IA dans l'Union européenne, quel que soit son lieu d'établissement.
L'approche par les risques
L'IA Act classe chaque système d'IA selon son niveau de risque. Plus le risque est élevé, plus les obligations sont strictes.
Risque inacceptable
INTERDITPratiques interdites depuis février 2025 : scoring social, manipulation subliminale, exploitation de vulnérabilités, identification biométrique temps réel dans l'espace public, catégorisation biométrique sensible.
Haut risque
CONFORMITÉ STRICTESystèmes IA dans les domaines sensibles (biométrie, infrastructures critiques, éducation, emploi, services essentiels, forces de l'ordre, migration, justice) ou composants de sécurité de produits réglementés UE.
Risque limité
TRANSPARENCESystèmes interagissant avec des personnes (chatbots, assistants virtuels) ou générant du contenu (deepfakes, texte, image). Obligation d'informer l'utilisateur qu'il interagit avec une IA.
Risque minimal
LIBREFiltres anti-spam, systèmes de recommandation, jeux vidéo. Aucune obligation spécifique, mais codes de conduite et littératie IA encouragés.
Êtes-vous concerné par l' IA Act ?
Déterminez en 5 minutes votre classification de risque IA Act et évaluez votre niveau de préparation : obligations, calendrier, recommandations personnalisées.
Lancer le simulateur IA ActLe Règlement (UE) 2024/1689 sur l'intelligence artificielle — dit IA Act — est le premier texte législatif au monde à encadrer l'IA de manière transversale. Adopté en août 2024, il s'applique progressivement jusqu'en 2027 et concerne l'ensemble des acteurs de la chaîne de valeur de l'IA : fournisseurs, déployeurs, importateurs, distributeurs.
L'IA Act ne s'applique pas de la même façon à tous les systèmes. Il instaure une approche par les risques : plus un système d'IA est susceptible de porter atteinte aux droits fondamentaux, plus les obligations sont strictes. Certaines pratiques sont purement et simplement interdites. Les systèmes haut risque doivent se conformer à un cadre exigeant de gestion des risques, de documentation technique et de supervision humaine.
Conitiv vous permet de classifier vos systèmes d'IA, d'évaluer votre niveau de préparation et de superviser la conformité IA de vos fournisseurs — depuis une seule plateforme.
Ce que l'IA Act exige concrètement
Système de gestion des risques (article 9)
Mise en place d'un système de gestion des risques continu et itératif sur l'ensemble du cycle de vie du système IA. Identification, estimation et évaluation des risques connus et prévisibles. Tests proportionnés au niveau de risque.
Gouvernance des données (article 10)
Les jeux de données d'entraînement, de validation et de test doivent satisfaire à des critères de qualité : pertinence, représentativité, absence de biais, complétude. Gouvernance documentée et traçable.
Documentation technique (article 11)
Documentation technique complète démontrant la conformité du système IA : conception, développement, capacités, limites, gestion des risques, données utilisées. Mise à jour régulière obligatoire.
Transparence et information (articles 13 et 50)
Les systèmes haut risque doivent être suffisamment transparents pour que les déployeurs interprètent correctement les résultats. Les chatbots et systèmes générateurs de contenu doivent informer l'utilisateur de l'interaction avec une IA.
Contrôle humain (article 14)
Les systèmes haut risque doivent permettre une supervision humaine effective : compréhension des capacités et limites, intervention et arrêt possibles, maintien du pouvoir de décision final par un humain.
Exactitude, robustesse, cybersécurité (article 15)
Les systèmes haut risque doivent atteindre un niveau approprié d'exactitude, de robustesse et de cybersécurité. Protection contre les tentatives de manipulation par des tiers, résilience face aux erreurs et incohérences.
Le point aveugle : vos fournisseurs d'IA
L'IA Act impose des obligations différentes aux fournisseurs et aux déployeurs de systèmes d'IA. Mais dans la pratique, le déployeur reste responsable de s'assurer que les systèmes qu'il utilise sont conformes — y compris ceux développés par des tiers.
de sanctions maximales
Concrètement, si vous intégrez un système d'IA haut risque développé par un fournisseur externe, vous devez vérifier sa conformité : documentation technique, gestion des risques, supervision humaine, marquage CE. Le Règlement ne vous dispense pas de cette vérification.
Conitiv vous permet d'évaluer la conformité IA Act de vos fournisseurs d'IA, de centraliser les preuves de conformité et de suivre l'évolution de leur posture réglementaire — avant que les échéances ne s'imposent.
| Fournisseur | DPA | Évaluation | Statut |
|---|---|---|---|
| Fournisseur A | Oui | Mars 2021 | Expiré |
| Fournisseur B | — | ? | Manquant |
| Fournisseur C | Oui | Juin 2022 | Expiré |
| Fournisseur D | — | — | Manquant |
| Fournisseur E | — | ? | ? |
Comment Conitiv vous aide sur l'IA Act
Classification et inventaire de vos systèmes IA
Inventoriez l'ensemble de vos systèmes d'IA, classifiez-les selon la pyramide des risques IA Act et identifiez automatiquement vos obligations. Visibilité complète sur votre exposition réglementaire.
Évaluation de conformité IA Act
Questionnaire structuré article par article couvrant les exigences de l'IA Act : gestion des risques, gouvernance des données, documentation technique, transparence, supervision humaine. Score de préparation sur 1 000.
Supervision des fournisseurs d'IA
Évaluez la conformité IA Act de vos fournisseurs d'IA : documentation technique, marquage CE, gestion des risques. Centralisez les preuves et suivez l'évolution de leur posture réglementaire.
Pilotage et documentation
Dashboard consolidé de votre conformité IA Act. Suivi des échéances réglementaires, alertes sur les évolutions du Règlement, documentation centralisée et preuves opposables.
Calendrier d' application
L'IA Act s'applique progressivement entre 2024 et 2027. Chaque échéance ajoute de nouvelles obligations.
Adoption du Règlement
Publication au Journal officiel de l'UE. Entrée en vigueur 20 jours plus tard.
Pratiques interdites + Littératie IA
Les pratiques à risque inacceptable (article 5) sont interdites. Obligation de littératie IA pour tous.
Obligations GPAI
Les fournisseurs de modèles d'IA à usage général (GPAI) doivent se conformer : documentation, droits d'auteur, évaluation.
Haut risque — Annexe III
Conformité obligatoire pour les systèmes IA haut risque dans les domaines sensibles : biométrie, emploi, crédit, justice, etc.
Haut risque — Annexe I
Conformité obligatoire pour les systèmes IA composants de sécurité de produits réglementés UE (dispositifs médicaux, machines, aviation…).
Vous déployez de l' IA — ou vous en fournissez
Si vous êtes fournisseur d'un système d'IA
- →Classifiez chaque système selon la pyramide des risques IA Act et identifiez vos obligations spécifiques.
- →Documentez la conformité technique : gestion des risques, gouvernance des données, transparence, supervision humaine.
- →Préparez le marquage CE pour vos systèmes haut risque et constituez la documentation technique exigée.
Si vous déployez un système d'IA
- →Évaluez la conformité IA Act de vos fournisseurs d'IA avant de déployer leurs systèmes.
- →Mettez en place la supervision humaine et les processus de contrôle exigés par le Règlement.
- →Réalisez une analyse d'impact sur les droits fondamentaux pour les systèmes haut risque.
Le Règlement (UE) 2024/1689 a été adopté en août 2024 et s'applique progressivement. Les pratiques interdites (article 5) et l'obligation de littératie IA sont en vigueur depuis février 2025. Les obligations GPAI s'appliquent depuis août 2025. Les obligations haut risque Annexe III s'appliqueront en août 2026 et celles de l'Annexe I en août 2027.
Un système d'IA est classé haut risque s'il relève d'un des domaines listés à l'Annexe III (biométrie, infrastructures critiques, éducation, emploi, services essentiels, forces de l'ordre, migration, justice) ou s'il est un composant de sécurité d'un produit réglementé UE listé à l'Annexe I. Le simulateur Conitiv vous aide à déterminer votre classification en quelques minutes.
Le fournisseur est celui qui développe ou met sur le marché un système d'IA. Le déployeur est celui qui utilise ce système en cadre professionnel. Les deux ont des obligations sous l'IA Act, mais elles sont différentes : le fournisseur porte la charge principale de conformité technique, le déployeur doit assurer la supervision humaine et la transparence vis-à-vis des utilisateurs finaux.
Un modèle d'IA à usage général (GPAI — General Purpose AI) est un modèle entraîné sur de grandes quantités de données, capable d'accomplir une variété de tâches distinctes. Les LLM comme GPT, Claude, Mistral ou Llama en sont des exemples. Les fournisseurs de GPAI ont des obligations spécifiques depuis août 2025 : documentation technique, politique droits d'auteur, résumé des données d'entraînement.
Non. Conitiv vous prépare à la conformité en évaluant votre classification de risque, en mesurant votre niveau de préparation et en supervisant vos fournisseurs d'IA. Les évaluations Conitiv produisent des preuves documentées et exploitables, mais ne se substituent pas à un audit de conformité par un organisme notifié dans le cadre du marquage CE.
Les sanctions varient selon la gravité : jusqu'à 35 M€ ou 7 % du CA mondial pour les pratiques interdites, 15 M€ ou 3 % pour les obligations haut risque, 7,5 M€ ou 1 % pour les informations inexactes. Les PME bénéficient de plafonds proportionnés. Au-delà des sanctions financières, la non-conformité expose à l'interdiction de mise sur le marché.