top of page
Formes de bulles abstraites

l’IA Act expliqué en 5 points

L’AI Act, adopté par l’Union européenne (entrée en vigueur progressive à partir de 2026), vise à encadrer l’usage sûr, transparent et éthique de l’intelligence artificielle. L’IA Act est le premier texte international à réguler l’intelligence artificielle selon une approche fondée sur les risques. Son objectif : garantir une IA fiable, éthique, transparente et sécurisée, tout en protégeant les droits fondamentaux des citoyens européens

  1. Identifier le risque du système d'IA


L’IA Act classe les systèmes d’IA en quatre catégories de risque :


  • Risque inacceptable : Interdiction pure et simple (ex. : IA exploitant la vulnérabilité des enfants ou des personnes en situation de précarité, reconnaissance faciale en temps réel dans l’espace public, Manipulation cognitive, notation sociale, reconnaissance biométrique en temps réel)


  • Risque élevé : Systèmes soumis à des exigences strictes, IA dans les soins de santé, éducation, justice, emploi, infrastructures critiques (évaluation de conformité, documentation, transparence, gouvernance, cybersécurité).

Les risques de l’IA dans le secteur de la santé
Les risques de l’IA dans le secteur de la santé


  • Risque limité : Chatbots, IA générative, systèmes de recommandation : Obligations de transparence (ex. : chatbots, assistants virtuels, générateurs de contenu).

  • Risque minime :Jeux vidéo, filtres photo, IA grand public sans impact social : Peu ou pas de contraintes


  1. Mesures de sécurité exigées pour les IA à haut risque


    Les développeurs et fournisseurs doivent garantir les aspects suivants :


    • Gestion rigoureuse des risques

      • Identifier, analyser et atténuer les risques tout au long du cycle de vie de l’IA.

      • Mettre à jour le système face aux vulnérabilités nouvelles.

    • Qualité des données d’entraînement

      • Données pertinentes, représentatives et sans biais discriminatoire.

      • Mesures de cybersécurité pour protéger les ensembles de données.

    • Traçabilité et documentation technique complète

      • Journalisation continue (logs).

      • Dossiers techniques détaillant la conception, les tests et les incidents.

    • Supervision humaine obligatoire

      • L’humain doit pouvoir intervenir, corriger ou désactiver le système à tout moment.

      • Formation et instructions claires pour les opérateurs.

    • Robustesse et cybersécurité

      • Résistance aux attaques (ex. : data poisoning, adversarial attacks).

      • Tests continus pour garantir la stabilité et la sécurité.

      • Obligation de mise à jour logicielle sécurisée


  1. Mesures pour les systèmes d' IA générative et modèles de fondation à risque élevé ou modéré selon leur usage


  • Ne pas produire de désinformation ou d'informations dangereuses (désinformation, incitation, contenus illicites).

  • Étiquetage clair des contenus générés (ex. : “image IA”, “texte IA”).

  • Transparence sur les données d’entraînement et les limites du modèle.

  • Protection contre les usages malveillants (deepfakes, manipulation, etc.).



    4. Surveillance post-commercialisation et responsabilité



  • Les systèmes doivent être surveillés après leur déploiement.

  • Les incidents graves doivent être signalés à l’autorité compétente sous 15 jours.

  • Les entreprises doivent tenir à jour un registre européen des IA à haut risque.



  1. Pourquoi devriez-vous vous sentir concerné au Canada ?


Même si la Bill C-27, qui comprenait l’Artificial Intelligence and Data Act (AIDA) et visait à instaurer une loi fédérale sur la protection des données ET une réglementation pour les systèmes d’IA à “fort impact” a été suspendue pour le moment, de nombreux cadres et standards sont maintenant disponibles pour l'utilisation d'une IA de confiance.


Seules les entreprises canadiennes qui touchent le marché européen ont à se conformer à l'IA Act.


L'état européen a toujours été précurseur en matière de risques et de protection des données personnelles. Rappelons que la France a adopté sa 1ere loi avec la Commission Informatique et Libertés en 1978.


Le Canada a le meilleur des deux mondes. Il peut s'appuyer sur l'expertise des cadres déjà disponibles pour éviter les biais et les erreurs sans pour autant freiner l'innovation, mais en poussant une innovation responsable et éthique.


Au final, les recommandations suivantes restent la référence :


  • Effectuer une évaluation de risques IA avant tout déploiement.

  • Assurer la sécurité des données et de la chaîne d’approvisionnement.

  • Mettre en place un processus d’audit et de traçabilité.

  • Définir des procédures de supervision humaine et d’arrêt d’urgence.

  • Établir des tests continus de robustesse et des mécanismes d’alerte.


Commentaires


PRADEL CONSULTING / CONSEIL

6500 route transcanadienne

Bureau 400

Pointe-Claire H9A 1R9

QC, CANADA

Nous suivre :

  • LinkedIn

S'abonner à notre infolettre

Merci pour votre envoi.

© 2025 Pradel Conseil / Pradel Consulting

bottom of page