Évaluer mon exposition au règlement européen sur l'IA
Le règlement européen sur l'intelligence artificielle (Règlement UE 2024/1689, dit « AI Act ») classe les systèmes d'IA en quatre niveaux de risque. Selon le niveau, vos obligations vont de la simple transparence à la mise en conformité complète sous peine d'amende pouvant atteindre 15 millions d'euros.
Ce diagnostic vous donne en 5 minutes une première estimation écrite de votre niveau d'exposition, des obligations qui s'appliquent, et de votre niveau de préparation. Aucune donnée n'est envoyée sur internet : tout le calcul se fait dans votre navigateur.
Avancement1 / 5
Étape 1 / 5 · Identification
Quelle est votre organisation ?
Plusieurs régimes du règlement européen sur l'IA dépendent du statut juridique et de la taille. Choisissez celui qui correspond le mieux.
Étape 1 / 5 · Identification
Combien de personnes votre organisation emploie-t-elle ?
Les obligations varient selon la taille — les structures de moins de 50 salariés bénéficient d'allègements sur certaines obligations documentaires.
Étape 2 / 5 · Votre rôle
Quel est votre rôle vis-à-vis du système d'IA ?
Le règlement crée quatre statuts distincts, avec des obligations différentes. Choisissez celui qui correspond à votre relation avec l'outil.
Étape 3 / 5 · Finalité du système
À quoi sert le système d'IA ? (plusieurs choix possibles)
C'est la finalité qui détermine le niveau de risque, pas la technologie. Cochez tous les usages réels et envisagés. Si vous n'en avez aucun, cochez la dernière case.
Étape 3 / 5 · Type de modèle
Le système repose-t-il sur un modèle d'IA à usage général ?
Un « modèle d'IA à usage général » désigne un grand modèle entraîné sur de larges corpus, capable de tâches variées : ChatGPT, Claude, Gemini, Mistral, Llama. Au-dessus d'un certain seuil de puissance de calcul, ces modèles sont qualifiés de « modèles à risque systémique ».
Le règlement européen sur la protection des données (RGPD) et le règlement sur l'IA s'articulent fortement. Le type de données traitées impose des obligations supplémentaires.
Étape 4 / 5 · Données traitées
Avez-vous réalisé une analyse d'impact sur la protection des données ?
Une analyse d'impact relative à la protection des données (AIPD), parfois appelée « évaluation d'impact » ou « DPIA », est un document obligatoire dès qu'un traitement présente un risque élevé pour les droits des personnes. La CNIL met à disposition un modèle gratuit.
Étape 5 / 5 · Supervision et transparence
L'IA prend-elle des décisions qui affectent directement des personnes ?
Le règlement impose une supervision humaine dès qu'un système d'IA produit des effets juridiques ou significatifs sur une personne. Une décision « significative » inclut le refus d'un service, l'orientation d'un parcours, l'attribution d'une note.
Étape 5 / 5 · Supervision et transparence
Les utilisateurs savent-ils qu'ils interagissent avec une IA ?
Le règlement impose une obligation de transparence : toute personne qui interagit avec un système d'IA doit être informée, sauf exceptions strictement définies. Cela vaut pour les robots de discussion, les voix de synthèse, les contenus générés.
Étape 5 / 5 · Supervision et transparence
La traçabilité des décisions est-elle assurée ?
Pour les systèmes d'IA à haut risque, le règlement impose une journalisation : chaque décision doit pouvoir être retrouvée, expliquée, rejouée. C'est une condition de l'audit et du recours.
Étape 5 / 5 · Supervision et transparence
Existe-t-il un recours pour contester une décision ?
Le règlement européen impose un droit à l'explication et à la contestation pour les décisions automatisées significatives. Une procédure formelle, écrite, accessible, doit être prévue.
Étape 5 / 5 · Supervision et transparence
Avez-vous une gouvernance interne dédiée à l'IA ?
Le règlement n'impose pas de comité formel, mais la pratique recommande un référent ou un comité interne pour piloter la conformité, former les équipes, traiter les signalements.
Étape 5 / 5 · Calendrier de mise en conformité
Quand prévoyez-vous d'être en conformité ?
Les obligations s'appliquent en cascade : 2 août 2025 pour les modèles à usage général, 2 août 2026 pour les systèmes à haut risque, 2 août 2027 pour l'application complète.
Votre diagnostic
Niveau d'exposition de votre organisation
—
—
—
Score de préparation
0 / 100
0 — Aucune50 — Partielle100 — Complète
Obligations applicables à votre situation
Recommandations priorisées
Audit gratuit · réservé aux structures de l'économie sociale et solidaire
Faire valider mon diagnostic avec H/IA
Une heure avec un membre de l'association. On part de votre diagnostic, on regarde vos outils existants, on qualifie chaque cas selon le règlement européen, et on vous écrit un plan de mise en conformité hiérarchisé. Gratuit pour les structures ESS de moins de 50 salariés.