Qu'est-ce que la Loi sur
l'IA de l'UE ?

tball

La Loi sur l'Intelligence Artificielle (Loi sur l'IA) est une réglementation phare introduite par l'Union Européenne pour régir le développement et l'utilisation des technologies d'intelligence artificielle.

Qu'est-ce que la Loi sur l'IA de l'UE ?

La Loi sur l'IA est entrée en vigueur le 1er août 2024, avec une application complète à partir du 2 août 2026. Les pratiques interdites sont bannies depuis le 2 février 2025. La loi promeut l'innovation tout en protégeant la santé, la sécurité et les droits fondamentaux.

regulation according to risk level

Elle s'applique à la fois aux fournisseurs et aux déployeurs de systèmes d'IA, les fournisseurs ayant des obligations plus étendues. La loi utilise une approche basée sur les risques :

  • Pratiques interdites : Inclut la manipulation cognitive et comportementale, le scoring social, le scraping d'images faciales et l'inférence biométrique d'attributs sensibles.
  • Systèmes d'IA à haut risque : Utilisés dans les infrastructures critiques, les ressources humaines, les notations de crédit ou les tribunaux. Doivent respecter des exigences strictes, y compris la gestion des risques, le marquage CE et la supervision humaine.
  • Modèles d'IA à usage général (GPAI) : Inclut les LLM comme ChatGPT. Les fournisseurs doivent garantir la transparence, le respect des droits d'auteur et la cybersécurité.
  • Systèmes d'IA à risque limité : Soumis à des obligations de transparence, telles que l'étiquetage des contenus générés par l'IA et des deep fakes.
  • Risque minimal ou nul : Inclut les jeux vidéo et les filtres anti-spam alimentés par l'IA, qui ne sont pas réglementés par la Loi sur l'IA.

Les violations de la Loi sur l'IA peuvent entraîner des amendes allant jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial, selon le montant le plus élevé.

Littératie en IA

Depuis le 2 février 2025, les fournisseurs et les déployeurs doivent s'assurer que leur personnel possède une littératie suffisante en IA. La formation est recommandée mais non obligatoire.

Les considérations clés incluent le rôle de l'entreprise, la compréhension générale de l'IA, les risques associés et les mesures de littératie adaptées en fonction des connaissances techniques et du contexte.

Mise en œuvre dans les entreprises

La Loi sur l'IA comprend 113 articles et 13 annexes, nécessitant une planification et des ressources approfondies pour sa mise en œuvre. Les entreprises doivent réaliser des audits pour évaluer :

  • Existence et catégorisation des systèmes d'IA
  • Type d'opérateur et objectif prévu
  • Données traitées et sorties générées
  • Conformité aux pratiques interdites et aux exigences à haut risque
  • Obligations de transparence, de cybersécurité et de supervision humaine

Qu'est-ce que l'intelligence artificielle (IA) ?

L'intelligence artificielle (IA) est un domaine de l'informatique qui imite les capacités cognitives humaines en identifiant et en triant les données d'entrée. Cette intelligence peut être basée sur des flux de travail programmés ou créée avec l'apprentissage automatique.

Dans l'apprentissage automatique, les données d'entraînement sont utilisées pour apprendre à l'IA à reconnaître des modèles et à faire des prédictions. La Loi sur l'IA définit un système d'IA comme un système basé sur des machines qui fonctionne avec différents niveaux d'autonomie et génère des sorties telles que des prédictions, des contenus, des recommandations ou des décisions.

Exemples de systèmes d'IA sous la Loi sur l'IA incluent la reconnaissance des émotions, la reconnaissance faciale, la sélection de candidats, l'administration de la justice, les soins de santé (par exemple, l'analyse des symptômes), le service client, les chatbots et l'IA générative.

L'IA générative, telle que ChatGPT, se réfère à des systèmes d'IA qui génèrent de manière autonome des résultats basés sur des données d'entrée en utilisant l'apprentissage automatique et de grands modèles de langage (LLM). Ces systèmes peuvent faire des erreurs et "halluciner" – inventer des déclarations probables mais inexactes.

Protection des données

L'utilisation de systèmes d'IA impliquant des données personnelles doit être conforme au RGPD. Les amendes pour violations peuvent atteindre 4 % du chiffre d'affaires mondial ou 20 millions d'euros.

Les entreprises doivent garantir un traitement licite, respecter la minimisation des données, l'exactitude et la confidentialité, et remplir les obligations d'information.

Les décisions automatisées ayant des effets juridiques doivent impliquer une discrétion humaine. Les mesures techniques et organisationnelles (MTO) telles que le chiffrement et la pseudonymisation sont essentielles.

Une évaluation d'impact sur la protection des données est requise pour les traitements à haut risque.

Protection des secrets commerciaux

Les secrets commerciaux doivent être protégés contre l'acquisition et la divulgation illégales. Les exigences incluent des mesures de confidentialité, des restrictions d'accès et des NDA.

Les systèmes d'IA, les données d'entraînement et les sorties peuvent constituer des secrets commerciaux. Les entreprises doivent réglementer l'utilisation des entrées et revoir les conditions des tiers pour éviter les risques de divulgation.

Les questions de droits d'auteur se posent tant du côté des entrées que des sorties des systèmes d'IA. L'utilisation de contenus protégés pour l'entraînement est soumise à un examen juridique.

Les œuvres générées par l'IA ne bénéficient pas de protection par le droit d'auteur selon la loi actuelle, car elles ne sont pas des créations humaines. Cela signifie que de telles sorties sont dans le domaine public.

Qui est responsable des défauts liés à l'IA ?

Les entreprises sont responsables des défauts des produits et services, y compris ceux causés par l'IA.

La directive réformée sur la responsabilité des produits de l'UE impose une responsabilité stricte pour les systèmes d'IA et les composants défectueux, couvrant les dommages corporels, les dommages matériels et la corruption des données.

Que faut-il vérifier dans les conditions d'utilisation des systèmes d'IA ?

Les entreprises doivent vérifier les conditions d'utilisation des systèmes d'IA tiers, en se concentrant sur :

  • La loi applicable et la juridiction
  • Le stockage et l'utilisation des entrées pour l'entraînement
  • Les droits sur les sorties
  • L'indemnisation contre les réclamations en matière de droits d'auteur
  • Les limitations de garantie et de responsabilité

Quelles lignes directrices les entreprises doivent-elles suivre pour l'utilisation de l'IA ?

Les lignes directrices internes sur l'IA aident à réglementer l'utilisation des systèmes d'IA par les employés. Elles peuvent inclure :

  • Descriptions et autorisations des systèmes d'IA
  • Instructions pour la gestion des entrées et des sorties
  • Respect de la confidentialité et de la protection des données
  • Mesures de cybersécurité et obligations de transparence

Résumé de la Loi sur l'IA de l'UE

La Loi sur l'IA de l'UE s'appliquera largement à partir du 2 août 2026 et doit être mise en œuvre par les entreprises utilisant l'IA. Elle réglemente les fournisseurs et les déployeurs d'IA grâce à une approche basée sur les risques : plus le risque de préjudice sociétal est élevé, plus les règles sont strictes.

  • La conformité au RGPD est obligatoire lors du traitement de données personnelles avec des systèmes d'IA.
  • Les systèmes d'IA doivent être protégés contre les accès non autorisés et les cyberattaques.
  • Les secrets commerciaux doivent être protégés lors de l'utilisation de systèmes d'IA.
  • Les questions de droits d'auteur sur les entrées et les sorties sont soumises à un examen juridique.
  • Les entreprises sont responsables des défauts des produits et services causés par l'IA.
  • Les conditions d'utilisation des systèmes d'IA tiers doivent être soigneusement examinées.
  • La littératie en IA des employés doit être promue par des lignes directrices internes.

Comment Trend Micro soutient-il la conformité avec la Loi sur l'IA ?

Respecter la Loi sur l'IA de l'UE signifie plus que simplement comprendre les règles – cela nécessite une gouvernance active, une surveillance des risques et une responsabilité claire à travers vos systèmes d'IA. Du droit d'auteur et de la responsabilité aux conditions d'utilisation et aux lignes directrices internes, les organisations doivent s'assurer que chaque aspect du déploiement de l'IA est aligné sur les normes légales en évolution.

Pour soutenir cela, les entreprises peuvent utiliser des outils avancés qui simplifient la conformité et réduisent l'exposition aux risques cybernétiques en utilisant la plateforme de gestion de l'exposition aux risques cybernétiques de Trend Micro, conçue pour vous aider à identifier les vulnérabilités, gérer les risques liés à l'IA et maintenir la confiance dans vos opérations numériques.

Foire aux questions (FAQ)

Expand all Hide all

Qu'est-ce que la Loi sur l'IA de l'UE ?

add

La Loi sur l'IA de l'UE est une réglementation régissant les systèmes d'intelligence artificielle pour garantir la sécurité, la transparence et la protection des droits fondamentaux.

Quand la Loi sur l'IA de l'UE entre-t-elle en vigueur ?

add

La Loi sur l'IA de l'UE est une réglementation régissant les systèmes d'intelligence artificielle pour garantir la sécurité, la transparence et la protection des droits fondamentaux.

À qui s'applique la Loi sur l'IA de l'UE ?

add

La Loi sur l'IA de l'UE est une réglementation régissant les systèmes d'intelligence artificielle pour garantir la sécurité, la transparence et la protection des droits fondamentaux.

Quand la Loi sur l'IA de l'UE a-t-elle été adoptée ?

add

La Loi sur l'IA de l'UE a été adoptée par le Parlement Européen en 2024 après des négociations et consultations approfondies avec les parties prenantes.

Comment se conformer à la Loi sur l'IA de l'UE ?

add

Pour se conformer, les organisations doivent classifier les systèmes d'IA par risque, garantir la transparence, effectuer des évaluations de conformité et maintenir une documentation.