Conformité IA Act— Réglementation

Conformité IA Act

Le premier cadre juridique mondial sur l'intelligence artificielle — qui impose des obligations proportionnées au niveau de risque de chaque système d'IA.

0M€

Sanctions maximales

0

Niveaux de risque

0

États membres

0

Année d'adoption

Qui est concerné ?

Fournisseurs de systèmes d'IA

  • Développeurs de systèmes d'IA
  • Éditeurs mettant un système d'IA sur le marché UE
  • Fournisseurs de modèles d'IA à usage général (GPAI)
  • Importateurs et distributeurs de systèmes d'IA
  • Fabricants intégrant un système d'IA dans un produit
Obligations maximales : conformité, marquage CE, documentation technique

Déployeurs de systèmes d'IA

  • Entreprises utilisant des systèmes d'IA en cadre professionnel
  • Administrations publiques déployant des systèmes d'IA
  • Organisations utilisant l'IA pour la prise de décision
  • Employeurs utilisant l'IA en RH (recrutement, évaluation)
  • Opérateurs d'infrastructures critiques intégrant de l'IA
Obligations : supervision humaine, transparence, analyse d'impact

Le Règlement s'applique à tout acteur mettant sur le marché, mettant en service ou utilisant un système d'IA dans l'Union européenne, quel que soit son lieu d'établissement.

L'approche par les risques

L'IA Act classe chaque système d'IA selon son niveau de risque. Plus le risque est élevé, plus les obligations sont strictes.

Risque inacceptable

INTERDIT

Pratiques interdites depuis février 2025 : scoring social, manipulation subliminale, exploitation de vulnérabilités, identification biométrique temps réel dans l'espace public, catégorisation biométrique sensible.

Sanctions : 35 M€ ou 7 % du CA mondial

Haut risque

CONFORMITÉ STRICTE

Systèmes IA dans les domaines sensibles (biométrie, infrastructures critiques, éducation, emploi, services essentiels, forces de l'ordre, migration, justice) ou composants de sécurité de produits réglementés UE.

Sanctions : 15 M€ ou 3 % du CA mondial

Risque limité

TRANSPARENCE

Systèmes interagissant avec des personnes (chatbots, assistants virtuels) ou générant du contenu (deepfakes, texte, image). Obligation d'informer l'utilisateur qu'il interagit avec une IA.

Sanctions : 7,5 M€ ou 1 % du CA mondial

Risque minimal

LIBRE

Filtres anti-spam, systèmes de recommandation, jeux vidéo. Aucune obligation spécifique, mais codes de conduite et littératie IA encouragés.

Sanctions : Aucune obligation spécifique

Êtes-vous concerné par l' IA Act ?

Déterminez en 5 minutes votre classification de risque IA Act et évaluez votre niveau de préparation : obligations, calendrier, recommandations personnalisées.

Lancer le simulateur IA Act
01

Le Règlement (UE) 2024/1689 sur l'intelligence artificielle dit IA Act est le premier texte législatif au monde à encadrer l'IA de manière transversale. Adopté en août 2024, il s'applique progressivement jusqu'en 2027 et concerne l'ensemble des acteurs de la chaîne de valeur de l'IA : fournisseurs, déployeurs, importateurs, distributeurs.

02

L'IA Act ne s'applique pas de la même façon à tous les systèmes. Il instaure une approche par les risques : plus un système d'IA est susceptible de porter atteinte aux droits fondamentaux, plus les obligations sont strictes. Certaines pratiques sont purement et simplement interdites. Les systèmes haut risque doivent se conformer à un cadre exigeant de gestion des risques, de documentation technique et de supervision humaine.

03

Conitiv vous permet de classifier vos systèmes d'IA, d'évaluer votre niveau de préparation et de superviser la conformité IA de vos fournisseurs depuis une seule plateforme.

Conitiv couvre cette réglementation
— Exigences

Ce que l'IA Act exige concrètement

01
Critique

Système de gestion des risques (article 9)

Mise en place d'un système de gestion des risques continu et itératif sur l'ensemble du cycle de vie du système IA. Identification, estimation et évaluation des risques connus et prévisibles. Tests proportionnés au niveau de risque.

Étape 01
02
Critique

Gouvernance des données (article 10)

Les jeux de données d'entraînement, de validation et de test doivent satisfaire à des critères de qualité : pertinence, représentativité, absence de biais, complétude. Gouvernance documentée et traçable.

Étape 02
03
Important

Documentation technique (article 11)

Documentation technique complète démontrant la conformité du système IA : conception, développement, capacités, limites, gestion des risques, données utilisées. Mise à jour régulière obligatoire.

Étape 03
04
Important

Transparence et information (articles 13 et 50)

Les systèmes haut risque doivent être suffisamment transparents pour que les déployeurs interprètent correctement les résultats. Les chatbots et systèmes générateurs de contenu doivent informer l'utilisateur de l'interaction avec une IA.

Étape 04
05
Requis

Contrôle humain (article 14)

Les systèmes haut risque doivent permettre une supervision humaine effective : compréhension des capacités et limites, intervention et arrêt possibles, maintien du pouvoir de décision final par un humain.

Étape 05
06
Requis

Exactitude, robustesse, cybersécurité (article 15)

Les systèmes haut risque doivent atteindre un niveau approprié d'exactitude, de robustesse et de cybersécurité. Protection contre les tentatives de manipulation par des tiers, résilience face aux erreurs et incohérences.

Étape 06

Le point aveugle : vos fournisseurs d'IA

L'IA Act impose des obligations différentes aux fournisseurs et aux déployeurs de systèmes d'IA. Mais dans la pratique, le déployeur reste responsable de s'assurer que les systèmes qu'il utilise sont conformes — y compris ceux développés par des tiers.

0M€

de sanctions maximales

Concrètement, si vous intégrez un système d'IA haut risque développé par un fournisseur externe, vous devez vérifier sa conformité : documentation technique, gestion des risques, supervision humaine, marquage CE. Le Règlement ne vous dispense pas de cette vérification.

Conitiv vous permet d'évaluer la conformité IA Act de vos fournisseurs d'IA, de centraliser les preuves de conformité et de suivre l'évolution de leur posture réglementaire — avant que les échéances ne s'imposent.

📁 Suivi_DPA_v3_FINAL_2.xlsxModifié il y a 14 mois
FournisseurDPAÉvaluationStatut
Fournisseur AOuiMars 2021Expiré
Fournisseur B?Manquant
Fournisseur COuiJuin 2022Expiré
Fournisseur DManquant
Fournisseur E??
⚠ 3 DPA manquants • 1 évaluation expirée

Comment Conitiv vous aide sur l'IA Act

Classification IA

Classification et inventaire de vos systèmes IA

Inventoriez l'ensemble de vos systèmes d'IA, classifiez-les selon la pyramide des risques IA Act et identifiez automatiquement vos obligations. Visibilité complète sur votre exposition réglementaire.

Conitiv Dashboard
247
+12%
Tiers scorés
734
+5%
Score moyen
3
actives
Alertes
Conformité IA

Évaluation de conformité IA Act

Questionnaire structuré article par article couvrant les exigences de l'IA Act : gestion des risques, gouvernance des données, documentation technique, transparence, supervision humaine. Score de préparation sur 1 000.

Supply chain IA

Supervision des fournisseurs d'IA

Évaluez la conformité IA Act de vos fournisseurs d'IA : documentation technique, marquage CE, gestion des risques. Centralisez les preuves et suivez l'évolution de leur posture réglementaire.

Dashboard intégré

Pilotage et documentation

Dashboard consolidé de votre conformité IA Act. Suivi des échéances réglementaires, alertes sur les évolutions du Règlement, documentation centralisée et preuves opposables.

Calendrier d' application

L'IA Act s'applique progressivement entre 2024 et 2027. Chaque échéance ajoute de nouvelles obligations.

Août 2024En vigueur

Adoption du Règlement

Publication au Journal officiel de l'UE. Entrée en vigueur 20 jours plus tard.

Février 2025En vigueur

Pratiques interdites + Littératie IA

Les pratiques à risque inacceptable (article 5) sont interdites. Obligation de littératie IA pour tous.

Août 2025

Obligations GPAI

Les fournisseurs de modèles d'IA à usage général (GPAI) doivent se conformer : documentation, droits d'auteur, évaluation.

Août 2026

Haut risque — Annexe III

Conformité obligatoire pour les systèmes IA haut risque dans les domaines sensibles : biométrie, emploi, crédit, justice, etc.

Août 2027

Haut risque — Annexe I

Conformité obligatoire pour les systèmes IA composants de sécurité de produits réglementés UE (dispositifs médicaux, machines, aviation…).

Digital Omnibus AI (novembre 2025) : la Commission propose un report possible des obligations Annexe III de août 2026 à décembre 2027 pour certaines catégories.

Vous déployez de l' IA — ou vous en fournissez

Si vous êtes fournisseur d'un système d'IA

  • Classifiez chaque système selon la pyramide des risques IA Act et identifiez vos obligations spécifiques.
  • Documentez la conformité technique : gestion des risques, gouvernance des données, transparence, supervision humaine.
  • Préparez le marquage CE pour vos systèmes haut risque et constituez la documentation technique exigée.

Si vous déployez un système d'IA

  • Évaluez la conformité IA Act de vos fournisseurs d'IA avant de déployer leurs systèmes.
  • Mettez en place la supervision humaine et les processus de contrôle exigés par le Règlement.
  • Réalisez une analyse d'impact sur les droits fondamentaux pour les systèmes haut risque.
Co
Conitiv
En ligne

Échanger avec un expert

Le Règlement (UE) 2024/1689 a été adopté en août 2024 et s'applique progressivement. Les pratiques interdites (article 5) et l'obligation de littératie IA sont en vigueur depuis février 2025. Les obligations GPAI s'appliquent depuis août 2025. Les obligations haut risque Annexe III s'appliqueront en août 2026 et celles de l'Annexe I en août 2027.

Un système d'IA est classé haut risque s'il relève d'un des domaines listés à l'Annexe III (biométrie, infrastructures critiques, éducation, emploi, services essentiels, forces de l'ordre, migration, justice) ou s'il est un composant de sécurité d'un produit réglementé UE listé à l'Annexe I. Le simulateur Conitiv vous aide à déterminer votre classification en quelques minutes.

Le fournisseur est celui qui développe ou met sur le marché un système d'IA. Le déployeur est celui qui utilise ce système en cadre professionnel. Les deux ont des obligations sous l'IA Act, mais elles sont différentes : le fournisseur porte la charge principale de conformité technique, le déployeur doit assurer la supervision humaine et la transparence vis-à-vis des utilisateurs finaux.

Un modèle d'IA à usage général (GPAI — General Purpose AI) est un modèle entraîné sur de grandes quantités de données, capable d'accomplir une variété de tâches distinctes. Les LLM comme GPT, Claude, Mistral ou Llama en sont des exemples. Les fournisseurs de GPAI ont des obligations spécifiques depuis août 2025 : documentation technique, politique droits d'auteur, résumé des données d'entraînement.

Non. Conitiv vous prépare à la conformité en évaluant votre classification de risque, en mesurant votre niveau de préparation et en supervisant vos fournisseurs d'IA. Les évaluations Conitiv produisent des preuves documentées et exploitables, mais ne se substituent pas à un audit de conformité par un organisme notifié dans le cadre du marquage CE.

Les sanctions varient selon la gravité : jusqu'à 35 M€ ou 7 % du CA mondial pour les pratiques interdites, 15 M€ ou 3 % pour les obligations haut risque, 7,5 M€ ou 1 % pour les informations inexactes. Les PME bénéficient de plafonds proportionnés. Au-delà des sanctions financières, la non-conformité expose à l'interdiction de mise sur le marché.

Prêt à évaluer votre conformité IA Act ?

AI Act - Artificial Intelligence Regulation | Conitiv