Êtes-vous concerné par l'AI Act ?
Vous êtes concerné si vous fournissez ou déployez un système IA dans l'Union européenne. La distinction clé :
- Fournisseur (provider) : vous développez ou faites développer le système et le mettez sur le marché. Obligations lourdes pour les systèmes haut risque (système qualité, documentation Annexe IV, évaluation de conformité, marquage CE).
- Déployeur (deployer) : vous utilisez un système IA tiers sous votre propre autorité. Obligations opérationnelles (surveillance, logs, transparence utilisateur, évaluation d'impact).
Le calendrier d'application :
- 2 février 2025 : interdictions (Article 5 — manipulations cognitives, scoring social, certaines biométrique).
- 2 août 2025 : obligations sur les modèles d'IA à usage général (GPAI).
- 2 août 2026 : systèmes à haut risque (Annexe III) — c'est l'échéance critique.
- 2 août 2027 : application complète.
Votre système est-il à haut risque ?
L'Annexe III définit 8 grands cas d'usage haut risque :
1. Biométrie (identification biométrique post-distance, catégorisation, reconnaissance d'émotions au travail/école).
2. Infrastructures critiques (gestion du trafic routier, eau, gaz, électricité).
3. Éducation et formation professionnelle (admission, évaluation, classement).
4. Emploi (recrutement, sélection, évaluation, attribution de tâches).
5. Accès aux services publics et privés essentiels (crédit, assurance, prestations sociales).
6. Application de la loi.
7. Migration, asile, contrôle aux frontières.
8. Justice et processus démocratiques.
De plus, un système est haut risque s'il est composant de sécurité d'un produit déjà réglementé (jouet, machine, dispositif médical, véhicule). La qualification est rarement triviale — elle nécessite une analyse cas par cas argumentée.
Méthode WeeSec en 4 phases
Phase 1 — Cartographie et classification (2 semaines). Inventaire des systèmes IA, classification AI Act (interdit / haut risque / risque limité / risque minimal), identification du rôle (fournisseur / déployeur), évaluation préliminaire d'impact. Livrable : registre AI Act et matrice de classification argumentée.
Phase 2 — Gap analysis (3 semaines). Pour chaque système haut risque, écart vs les exigences détaillées : Article 9 (gestion du risque), Article 10 (gouvernance des données), Article 11 (documentation Annexe IV), Article 13 (transparence utilisateur), Article 14 (surveillance humaine), Article 15 (robustesse, exactitude, cybersécurité). Livrable : rapport de conformité avec score par exigence.
Phase 3 — Mise en conformité (3 à 6 mois selon ampleur). Mise en place du système qualité (Article 17), rédaction de la documentation technique Annexe IV, déploiement de la surveillance humaine et du logging, intégration des contrôles de robustesse et de cybersécurité, préparation de l'évaluation de conformité.
Phase 4 — Préparation au marché (1 mois). Évaluation de conformité (auto-évaluation ou organisme notifié selon cas), préparation du marquage CE, enregistrement dans la base UE, plan de surveillance post-marché.
Articulation avec ISO 42001 et NIST AI RMF
ISO/IEC 42001:2023 est la première norme internationale de management de l'IA, publiée en décembre 2023. Reconnue comme moyen de présomption de conformité partielle pour le système qualité (Article 17 AI Act) et la gestion du risque (Article 9). Pour une organisation déjà certifiée ISO 27001, ISO 42001 réutilise 60-70% du système existant (Annex SL).
NIST AI RMF (Risk Management Framework) avec son Generative AI Profile (NIST AI 600-1, juillet 2024) fournit un cadre opérationnel pour la gestion du risque IA. Volontaire mais reconnu mondialement, il complète bien ISO 42001 sur les aspects techniques.
WeeSec articule les trois (AI Act + ISO 42001 + NIST AI RMF) dans une démarche unique pour éviter les redondances.
Conformité GPAI (modèles à usage général)
Si vous développez un modèle d'IA à usage général (foundation model), des obligations spécifiques s'appliquent depuis le 2 août 2025 :
- Documentation technique conforme à l'Annexe XI.
- Politique de respect du droit d'auteur.
- Résumé public des données d'entraînement (Article 53).
- Évaluation et atténuation des risques.
Pour les GPAI à risque systémique (FLOPs > 10^25, typiquement les très gros modèles) : obligations renforcées (tests adversariaux, suivi des incidents graves, mesures de cybersécurité du modèle).
Si vous utilisez un GPAI tiers (OpenAI, Anthropic, Google, Mistral) en production, vous devez auditer le fournisseur (DDQ structurée). WeeSec dispose d'un canevas DDQ aligné sur l'AI Act.
Sanctions — pourquoi ne pas attendre
Les sanctions prévues par l'AI Act sont parmi les plus lourdes du droit européen :
- Pratiques interdites (Article 5) : jusqu'à 35 M€ ou 7% du CA mondial annuel.
- Obligations systèmes haut risque et GPAI : jusqu'à 15 M€ ou 3% du CA mondial.
- Information incorrecte aux autorités : jusqu'à 7,5 M€ ou 1%.
En France, les autorités compétentes sont la CNIL (libertés fondamentales, données personnelles), la DGCCRF (consommateurs) et l'Arcom (audiovisuel et plateformes en ligne). Ces autorités peuvent inspecter, sanctionner et exiger la suspension d'un système non conforme.
Le risque opérationnel est aussi commercial : un client enterprise demandera votre conformité AI Act avant d'intégrer votre système — la non-conformité ferme des marchés.