l’IA Act expliqué en 5 points
- pradelconseil
- 7 oct.
- 3 min de lecture
L’AI Act, adopté par l’Union européenne (entrée en vigueur progressive à partir de 2026), vise à encadrer l’usage sûr, transparent et éthique de l’intelligence artificielle. L’IA Act est le premier texte international à réguler l’intelligence artificielle selon une approche fondée sur les risques. Son objectif : garantir une IA fiable, éthique, transparente et sécurisée, tout en protégeant les droits fondamentaux des citoyens européens
Identifier le risque du système d'IA
L’IA Act classe les systèmes d’IA en quatre catégories de risque :
Risque inacceptable : Interdiction pure et simple (ex. : IA exploitant la vulnérabilité des enfants ou des personnes en situation de précarité, reconnaissance faciale en temps réel dans l’espace public, Manipulation cognitive, notation sociale, reconnaissance biométrique en temps réel)
Risque élevé : Systèmes soumis à des exigences strictes, IA dans les soins de santé, éducation, justice, emploi, infrastructures critiques (évaluation de conformité, documentation, transparence, gouvernance, cybersécurité).

Risque limité : Chatbots, IA générative, systèmes de recommandation : Obligations de transparence (ex. : chatbots, assistants virtuels, générateurs de contenu).
Risque minime :Jeux vidéo, filtres photo, IA grand public sans impact social : Peu ou pas de contraintes
Mesures de sécurité exigées pour les IA à haut risque
Les développeurs et fournisseurs doivent garantir les aspects suivants :
Gestion rigoureuse des risques
Identifier, analyser et atténuer les risques tout au long du cycle de vie de l’IA.
Mettre à jour le système face aux vulnérabilités nouvelles.
Qualité des données d’entraînement
Données pertinentes, représentatives et sans biais discriminatoire.
Mesures de cybersécurité pour protéger les ensembles de données.
Traçabilité et documentation technique complète
Journalisation continue (logs).
Dossiers techniques détaillant la conception, les tests et les incidents.
Supervision humaine obligatoire
L’humain doit pouvoir intervenir, corriger ou désactiver le système à tout moment.
Formation et instructions claires pour les opérateurs.
Robustesse et cybersécurité
Résistance aux attaques (ex. : data poisoning, adversarial attacks).
Tests continus pour garantir la stabilité et la sécurité.
Obligation de mise à jour logicielle sécurisée
Mesures pour les systèmes d' IA générative et modèles de fondation à risque élevé ou modéré selon leur usage
Ne pas produire de désinformation ou d'informations dangereuses (désinformation, incitation, contenus illicites).
Étiquetage clair des contenus générés (ex. : “image IA”, “texte IA”).
Transparence sur les données d’entraînement et les limites du modèle.
Protection contre les usages malveillants (deepfakes, manipulation, etc.).
4. Surveillance post-commercialisation et responsabilité
Les systèmes doivent être surveillés après leur déploiement.
Les incidents graves doivent être signalés à l’autorité compétente sous 15 jours.
Les entreprises doivent tenir à jour un registre européen des IA à haut risque.
Pourquoi devriez-vous vous sentir concerné au Canada ?
Même si la Bill C-27, qui comprenait l’Artificial Intelligence and Data Act (AIDA) et visait à instaurer une loi fédérale sur la protection des données ET une réglementation pour les systèmes d’IA à “fort impact” a été suspendue pour le moment, de nombreux cadres et standards sont maintenant disponibles pour l'utilisation d'une IA de confiance.
Seules les entreprises canadiennes qui touchent le marché européen ont à se conformer à l'IA Act.
L'état européen a toujours été précurseur en matière de risques et de protection des données personnelles. Rappelons que la France a adopté sa 1ere loi avec la Commission Informatique et Libertés en 1978.
Le Canada a le meilleur des deux mondes. Il peut s'appuyer sur l'expertise des cadres déjà disponibles pour éviter les biais et les erreurs sans pour autant freiner l'innovation, mais en poussant une innovation responsable et éthique.
Au final, les recommandations suivantes restent la référence :
Effectuer une évaluation de risques IA avant tout déploiement.
Assurer la sécurité des données et de la chaîne d’approvisionnement.
Mettre en place un processus d’audit et de traçabilité.
Définir des procédures de supervision humaine et d’arrêt d’urgence.
Établir des tests continus de robustesse et des mécanismes d’alerte.




Commentaires