Qu’est-ce que l'EU AI ACT?

tball

La Loi sur l'IA (EU AI Act) est une réglementation phare introduite par l'Union Européenne pour régir le développement et l'utilisation des technologies d'intelligence artificielle.

Qu'est-ce que la loi européenne sur l'IA ?

La loi européenne sur l'IA est un cadre réglementaire complet qui régit la manière dont les systèmes d'intelligence artificielle sont développés, mis sur le marché et utilisés au sein de l'Union européenne. Elle s'applique aux fournisseurs et aux utilisateurs d'IA et établit des obligations légales claires en fonction de l'impact des systèmes d'IA sur les individus, la société et les droits fondamentaux. La loi promeut l'innovation tout en protégeant la santé, la sécurité et les droits fondamentaux en fixant des exigences en matière de transparence, de gestion des risques, de supervision humaine, de gouvernance des données et de cybersécurité tout au long du cycle de vie de l'IA.

Catégories de risque de la loi européenne sur l'IA

La loi européenne sur l'IA utilise une approche basée sur le risque, ce qui signifie que les systèmes d'IA sont réglementés en fonction du niveau de risque qu'ils posent pour les individus et la société. Plus le risque potentiel est élevé, plus les obligations imposées aux fournisseurs et aux utilisateurs sont strictes.

  • Pratiques interdites
    Les systèmes d'IA qui posent un risque inacceptable sont interdits. Cela inclut la manipulation comportementale cognitive, le scoring social par les autorités publiques, le scraping indiscriminé d'images faciales et l'inférence biométrique d'attributs sensibles tels que les croyances politiques ou l'orientation sexuelle.
  • Systèmes d'IA à haut risque
    Les systèmes à haut risque sont utilisés dans des domaines sensibles ou réglementés tels que les infrastructures critiques, l'emploi et les ressources humaines, les évaluations de solvabilité, l'éducation, les soins de santé, les forces de l'ordre, le contrôle des frontières et l'administration de la justice. Ces systèmes doivent répondre à des exigences strictes, y compris des processus de gestion des risques, des données de formation de haute qualité, une documentation technique, une supervision humaine, des mesures de cybersécurité et un marquage CE avant d'être mis sur le marché.
  • Modèles d'IA à usage général (GPAI)
    Cette catégorie comprend les modèles à grande échelle tels que les grands modèles de langage (LLM). Les fournisseurs doivent respecter les obligations de transparence, respecter les règles de droit d'auteur, documenter les pratiques de formation et mettre en œuvre des mesures pour traiter les risques systémiques, en particulier pour les modèles plus performants ou largement déployés.
  • Systèmes d'IA à risque limité
    Ces systèmes sont principalement soumis à des obligations de transparence. Les utilisateurs doivent être informés lorsqu'ils interagissent avec du contenu généré par l'IA, tel que des chatbots ou des deepfakes, sauf si une exception s'applique.
  • Systèmes d'IA à risque minimal ou nul
    Les applications d'IA qui posent peu ou pas de risque, telles que les jeux vidéo activés par l'IA ou les filtres anti-spam, sont largement exemptées de la réglementation en vertu de la loi sur l'IA.

Les violations de la Loi sur l'IA peuvent entraîner des amendes allant jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial, selon le montant le plus élevé.

regulation according to risk level

Loi sur l’IA de l’UE et culture en IA

Depuis le 2 février 2025, les fournisseurs et les déployeurs doivent s'assurer que leur personnel possède une littératie suffisante en IA. La formation est recommandée mais non obligatoire.

Les considérations clés incluent le rôle de l'entreprise, la compréhension générale de l'IA, les risques associés et les mesures de littératie adaptées en fonction des connaissances techniques et du contexte.

Mise en œuvre dans les entreprises

La mise en œuvre de la loi européenne sur l'IA nécessite que les organisations traduisent les obligations réglementaires en contrôles opérationnels. Les audits jouent un rôle crucial dans ce processus en aidant les entreprises à comprendre comment les systèmes d'IA sont utilisés, où existent les risques et quelles mesures de conformité sont nécessaires.
Ces audits visent à :

  • Identifier et classer les systèmes d'IA selon les catégories de risque de la loi
  • Déterminer si l'organisation agit en tant que fournisseur, utilisateur ou les deux
  • Évaluer comment les systèmes d'IA traitent les données et génèrent des résultats
  • Identifier les lacunes en matière de transparence, de supervision humaine, de cybersécurité et de gestion des risques
  • Informer les plans de remédiation, les structures de gouvernance et les contrôles internes nécessaires à la conformité

En pratique, ces évaluations forment la base des programmes de gouvernance de l'IA et permettent aux organisations de prioriser les efforts de conformité en fonction du risque et de l'exposition réglementaire.

Calendrier de la loi sur l’IA de l’UE

La loi sur l’IA de l’UE suit un calendrier de mise en œuvre par étapes, donnant aux organisations le temps d’adapter leurs programmes de gouvernance, de gestion des risques et de conformité en matière d’IA. Les jalons clés couvrent l’entrée en vigueur, l’application des obligations spécifiques et l’exigence de conformité complète.

Dates clés de la loi sur l’IA de l’UE

Key EU AI Act Dates

Date

Événement

1 août 2024

La loi sur l’IA de l’UE entre en vigueur et devient officiellement une loi de l’UE.

2 février 2025

Les pratiques d’IA interdites prennent effet. Les autorités nationales chargées de l’application sont désignées.

2 août 2025

Les règles relatives aux modèles d’IA à usage général (GPAI) et les obligations de gouvernance associées s’appliquent.

2 août 2026

La loi sur l’IA est pleinement applicable à toutes les catégories de risque, y compris les systèmes à haut risque.

2 août 2027

Les systèmes d’IA à haut risque intégrés dans des produits réglementés doivent être entièrement conformes.

Cette approche progressive vise à équilibrer innovation et sécurité juridique, permettant une mise en œuvre graduelle des mécanismes de gouvernance, de protection technique et de supervision.

Qu'est-ce que l'intelligence artificielle (IA) ?

L'intelligence artificielle (IA) est un domaine de l'informatique qui imite les capacités cognitives humaines en identifiant et en triant les données d'entrée. Cette intelligence peut être basée sur des flux de travail programmés ou créée avec l'apprentissage automatique.

Dans l'apprentissage automatique, les données d'entraînement sont utilisées pour apprendre à l'IA à reconnaître des modèles et à faire des prédictions. La Loi sur l'IA définit un système d'IA comme un système basé sur des machines qui fonctionne avec différents niveaux d'autonomie et génère des sorties telles que des prédictions, des contenus, des recommandations ou des décisions.

Exemples de systèmes d'IA sous la Loi sur l'IA incluent la reconnaissance des émotions, la reconnaissance faciale, la sélection de candidats, l'administration de la justice, les soins de santé (par exemple, l'analyse des symptômes), le service client, les chatbots et l'IA générative.

L'IA générative, telle que ChatGPT, se réfère à des systèmes d'IA qui génèrent de manière autonome des résultats basés sur des données d'entrée en utilisant l'apprentissage automatique et de grands modèles de langage (LLM). Ces systèmes peuvent faire des erreurs et "halluciner" – inventer des déclarations probables mais inexactes.

Protection des données

L’utilisation de systèmes d’IA impliquant des données personnelles doit respecter le RGPD et mettre en œuvre des pratiques de prévention des pertes de données. Les amendes pour violations peuvent atteindre 4 % du chiffre d'affaires mondial ou 20 millions d'euros.

Les entreprises doivent garantir un traitement licite, respecter la minimisation des données, l'exactitude et la confidentialité, et remplir les obligations d'information.

Les décisions automatisées ayant des effets juridiques doivent impliquer une discrétion humaine. Les mesures techniques et organisationnelles (MTO) telles que le chiffrement et la pseudonymisation sont essentielles.

Une évaluation d'impact sur la protection des données est requise pour les traitements à haut risque.

Protection des secrets commerciaux

Les secrets commerciaux doivent être protégés contre l'acquisition et la divulgation illégales. Les exigences incluent des mesures de confidentialité, des restrictions d'accès et des NDA.

Les systèmes d'IA, les données d'entraînement et les sorties peuvent constituer des secrets commerciaux. Les entreprises doivent réglementer l'utilisation des entrées et revoir les conditions des tiers pour éviter les risques de divulgation.

Les questions de droits d'auteur se posent tant du côté des entrées que des sorties des systèmes d'IA. L'utilisation de contenus protégés pour l'entraînement est soumise à un examen juridique.

Les œuvres générées par l'IA ne bénéficient pas de protection par le droit d'auteur selon la loi actuelle, car elles ne sont pas des créations humaines. Cela signifie que de telles sorties sont dans le domaine public.

À qui s’applique la loi européenne sur l’IA ?

La loi européenne sur l'IA s'applique largement aux organisations impliquées dans le développement, la distribution ou l'utilisation de systèmes d'IA qui affectent le marché de l'UE, indépendamment de l'endroit où l'organisation a son siège.

Les parties responsables incluent :

  • Les fournisseurs d'IA, tels que les entreprises qui développent ou mettent sur le marché des systèmes d'IA ou des modèles d'IA à usage général dans l'UE
  • Les utilisateurs d'IA, y compris les organisations qui utilisent des systèmes d'IA dans les opérations commerciales, la prise de décision ou les services destinés aux clients
  • Les importateurs et distributeurs qui introduisent des systèmes d'IA dans la chaîne d'approvisionnement de l'UE
  • Les fabricants de produits qui intègrent l'IA dans des produits ou services réglementés

Au sein des organisations, la responsabilité incombe généralement à :

  • La direction exécutive responsable de la gouvernance et de la supervision des risques
  • Les équipes juridiques et de conformité qui gèrent les obligations réglementaires
  • Les équipes informatiques, de sécurité et de données responsables de la mise en œuvre, de la surveillance et des mesures de protection

La loi tient ces parties responsables par le biais de mécanismes d'application, y compris des amendes, des restrictions de marché et une exposition à la responsabilité pour non-conformité ou dommages causés par les systèmes d'IA.

Que faut-il vérifier dans les conditions d'utilisation des systèmes d'IA ?

Les entreprises doivent vérifier les conditions d'utilisation des systèmes d'IA tiers, en se concentrant sur :

  • La loi applicable et la juridiction
  • Le stockage et l'utilisation des entrées pour l'entraînement
  • Les droits sur les sorties
  • L'indemnisation contre les réclamations en matière de droits d'auteur
  • Les limitations de garantie et de responsabilité

Quelles directives les entreprises doivent-elles suivre pour se conformer à la loi européenne sur l’IA ?

Les lignes directrices internes sur l'IA aident à réglementer l'utilisation des systèmes d'IA par les employés. Elles peuvent inclure :

  • Descriptions et autorisations des systèmes d'IA
  • Instructions pour la gestion des entrées et des sorties
  • Respect de la confidentialité et de la protection des données
  • Mesures de cybersécurité et obligations de transparence

Résumé de la Loi sur l'IA de l'UE

La Loi sur l'IA de l'UE s'appliquera largement à partir du 2 août 2026 et doit être mise en œuvre par les entreprises utilisant l'IA. Elle réglemente les fournisseurs et les déployeurs d'IA grâce à une approche basée sur les risques : plus le risque de préjudice sociétal est élevé, plus les règles sont strictes.

  • La conformité au RGPD est obligatoire lors du traitement de données personnelles avec des systèmes d'IA.
  • Les systèmes d'IA doivent être protégés contre les accès non autorisés et les cyberattaques.
  • Les secrets commerciaux doivent être protégés lors de l'utilisation de systèmes d'IA.
  • Les questions de droits d'auteur sur les entrées et les sorties sont soumises à un examen juridique.
  • Les entreprises sont responsables des défauts des produits et services causés par l'IA.
  • Les conditions d'utilisation des systèmes d'IA tiers doivent être soigneusement examinées.
  • La littératie en IA des employés doit être promue par des lignes directrices internes.

Comment Trend Micro soutient-il la conformité avec la Loi sur l'IA ?

Respecter la Loi sur l'IA de l'UE signifie plus que simplement comprendre les règles – cela nécessite une gouvernance active, une surveillance des risques et une responsabilité claire à travers vos systèmes d'IA. Du droit d'auteur et de la responsabilité aux conditions d'utilisation et aux lignes directrices internes, les organisations doivent s'assurer que chaque aspect du déploiement de l'IA est aligné sur les normes légales en évolution.

Pour soutenir cela, les entreprises peuvent utiliser des outils avancés qui simplifient la conformité et réduisent l'exposition aux risques cybernétiques en utilisant la plateforme de gestion de l'exposition aux risques cybernétiques de Trend Micro, conçue pour vous aider à identifier les vulnérabilités, gérer les risques liés à l'IA et maintenir la confiance dans vos opérations numériques.

Foire aux questions (FAQ)

Expand all Hide all

Qu'est-ce que la Loi sur l'IA de l'UE ?

add

La Loi sur l'IA de l'UE est une réglementation régissant les systèmes d'intelligence artificielle pour garantir la sécurité, la transparence et la protection des droits fondamentaux.

Quand la Loi sur l'IA de l'UE entre-t-elle en vigueur ?

add

La Loi sur l'IA de l'UE est une réglementation régissant les systèmes d'intelligence artificielle pour garantir la sécurité, la transparence et la protection des droits fondamentaux.

À qui s'applique la Loi sur l'IA de l'UE ?

add

La Loi sur l'IA de l'UE est une réglementation régissant les systèmes d'intelligence artificielle pour garantir la sécurité, la transparence et la protection des droits fondamentaux.

Quand la Loi sur l'IA de l'UE a-t-elle été adoptée ?

add

La Loi sur l'IA de l'UE a été adoptée par le Parlement Européen en 2024 après des négociations et consultations approfondies avec les parties prenantes.

Comment se conformer à la Loi sur l'IA de l'UE ?

add

Pour se conformer, les organisations doivent classifier les systèmes d'IA par risque, garantir la transparence, effectuer des évaluations de conformité et maintenir une documentation.

Quelles sanctions existent pour non-conformité à la loi européenne sur l’IA ?

add
  • La non-conformité à la loi IA de l’UE peut entraîner des amendes jusqu’à 35 millions € ou 7 % du chiffre d’affaires mondial.