Qu’est-ce que l’IA Act et comment se conformer ?

Quentin Marc
Ingénieur & Co-fondateur Loop Crew

L’IA Act régule les cas d’usages par niveaux de risques

L'AI Act classe les systèmes d'IA en quatre catégories selon leur niveau de risque :

  • Risque inacceptable : Systèmes strictement interdits comme la notation sociale, l'exploitation des vulnérabilités des personnes, et l'identification biométrique à distance en temps réel dans les espaces publics.
  • Risque élevé : Systèmes utilisés dans des domaines critiques (santé, éducation, RH, justice, énergie, transports) soumis à des exigences strictes et des audits réguliers.
  • Risque limité : Systèmes comme les assistants vocaux ou de reconnaissance d'image nécessitant de la transparence.
  • Risque minimal : Systèmes comme les filtres anti-spam ou algorithmes de recommandation peu encadrés.

À quel niveau de risque correspond mon projet ?

Pour répondre précisément à cette question, nous vous recommandons d'utiliser l’outil officiel de vérification de conformité à l’AI Act de l’UE.

À noter : si vous développez un système d’IA pour un usage interne, vous êtes considéré comme un “fournisseur” au regard de la réglementation.

De quelle mise en conformité parle-t’on selon le niveau de risque ?

Risque inacceptable

La mise sur le marché de la solution est interdite.

Risque élevé

  1. Mettre en place un système de gestion des risques : adopter des mesures de gestion des risques appropriées et ciblées pour répondre aux risques identifiés ;
    Méthodologie pour la mise en place d'un système de gestion des risques conforme à l'IA Act
  2. Valider la qualité et la non-discrimination des ensemble de données alimentant le système : tester son système d’IA dans un bac à sable réglementaire afin de s'assurer de l'absence de biais et de minimiser les résultats discriminatoires ;
    Méthodologie pour valider la qualité et la non-discrimination des ensembles de données dans un bac à sable réglementaire
  3. Évaluer la précision, la robustesse et garantir un niveau de cybersécurité : mettre en place des indicateurs de précision, une résilience contre les erreurs ainsi que toute mesure appropriée pour corriger les biais potentiels ;
    → Des outils comme LangSmith aident les équipes d’ingénieurs à analyser le comportement de l’IA en production. Ils permettent non seulement de garantir des temps de réponse optimaux, mais aussi de surveiller et d’évaluer la qualité des réponses générées par un modèle LLM.
  4. Garantir un contrôle humain : des mesures de surveillance humaine doivent être mis en oeuvre pour minimiser les risques et permettre aux utilisateurs un usage en confiance de ces outils;
  5. Respecter l’obligation d’information et de transparence : rendre les archives disponibles tout au long de la durée de vie du système d'IA pour assurer la traçabilité et la transparence de celui-ci ;
  6. Accompagner les systèmes d’IA d’un registre des activités : Documenter un système de gestion de la qualité concernant notamment la conformité réglementaire, la conception, le développement, les tests, ainsi que la gestion des risques.
    → Centraliser ces informations dans le repository de code (GitHub, GitLab ou équivalent) permet de garantir une gestion cohérente du projet en versionnant simultanément le code et la documentation réglementaire.
  7. Concevoir la documentation technique ;
  8. Procéder à la déclaration de conformité : La déclaration de conformité doit être rédigée et signée pour chaque système d'IA à haut risque puis soumise aux autorités nationales. Celle-ci est mise à jour en cas d’évolution des solutions d’IA ;
    → En attente de la mise en place par le gouvernement.
  9. S’assurer du marquage CE : s'assurer que le marquage CE est apposé de manière visible, lisible et indélébile. Ce label atteste de la conformité du système ou du modèle d’IA aux exigences Européennes ;
    → En attente de la mise en place par le gouvernement.
  10. Procéder à l’enregistrement : inscrire l’organisme qui a développé le SIA et le SIA lui-même dans la base de données de l'UE ;
    → En attente de la mise en place par le gouvernement.

Risque faible

Si vous souhaitez commercialiser un système d’intelligence artificielle à risque faible, vous devez simplement vous acquitter d’une obligation d'information des utilisateurs sur le fait que le contenu a été généré par IA.

Risque minime

Il n’y a pas d’obligation particulière.

Pour plus d’informations sur l’IA Act, nous vous conseillons la lecture du résumé de haut niveau du texte de loi.

Recevez les nouveaux articles par mail

2 articles par mois sur l'innovation au coeur de votre entreprise : Tech, IA, Automatisation.

En vous inscrivant, vous confirmez être d'accord avec nos CGU.
Merci, votre inscription a été enregistrée.
Oops! Une erreur est survenue, veuillez réessayer.