¿Qué es la Ley de IA de la UE?

tball

La Ley de IA de la UE (EU AI Act) es una regulación pionera introducida por la Unión Europea para gobernar el desarrollo y uso de tecnologías de inteligencia artificial.

¿Qué es la Ley de IA de la UE?

La Ley de IA de la UE es un marco regulatorio integral que regula cómo se desarrollan, comercializan y utilizan los sistemas de inteligencia artificial dentro de la Unión Europea. Se aplica tanto a los proveedores como a los usuarios de IA y establece obligaciones legales claras basadas en cómo los sistemas de IA impactan a los individuos, la sociedad y los derechos fundamentales. La ley promueve la innovación mientras protege la salud, la seguridad y los derechos fundamentales al establecer requisitos de transparencia, gestión de riesgos, supervisión humana, gobernanza de datos y ciberseguridad a lo largo del ciclo de vida de la IA.

Categorías de riesgo de la Ley de IA de la UE

La Ley de IA de la UE utiliza un enfoque basado en el riesgo, lo que significa que los sistemas de IA se regulan según el nivel de riesgo que representan para los individuos y la sociedad. Cuanto mayor sea el riesgo potencial, más estrictas serán las obligaciones impuestas a los proveedores y usuarios.

  • Prácticas prohibidas
    Los sistemas de IA que representan un riesgo inaceptable están prohibidos por completo. Esto incluye la manipulación cognitiva y conductual, la puntuación social por parte de las autoridades públicas, la recopilación indiscriminada de imágenes faciales y la inferencia biométrica de atributos sensibles como las creencias políticas o la orientación sexual.
  • Sistemas de IA de alto riesgo
    Los sistemas de alto riesgo se utilizan en áreas sensibles o reguladas, como infraestructuras críticas, empleo y recursos humanos, evaluaciones de solvencia, educación, atención sanitaria, aplicación de la ley, control de fronteras y administración de justicia. Estos sistemas deben cumplir requisitos estrictos, incluyendo procesos de gestión de riesgos, datos de formación de alta calidad, documentación técnica, supervisión humana, medidas de ciberseguridad y marcado CE antes de ser comercializados.
  • Modelos de IA de propósito general (GPAI)
    Esta categoría incluye modelos a gran escala, como los grandes modelos de lenguaje (LLM). Los proveedores deben cumplir con las obligaciones de transparencia, respetar las reglas de derechos de autor, documentar las prácticas de formación e implementar medidas para abordar los riesgos sistémicos, especialmente para los modelos más capaces o ampliamente desplegados.
  • Sistemas de IA de riesgo limitado
    Estos sistemas están sujetos principalmente a obligaciones de transparencia. Los usuarios deben ser informados cuando interactúan con contenido generado por IA, como chatbots o deepfakes, a menos que se aplique una excepción.
  • Sistemas de IA de riesgo mínimo o nulo
    Las aplicaciones de IA que representan poco o ningún riesgo, como los videojuegos habilitados con IA o los filtros de spam, están en gran medida exentas de regulación bajo la Ley de IA..

Las violaciones de la Ley de IA pueden resultar en multas de hasta 35 millones de euros o el 7% de la facturación anual global, lo que sea mayor.

regulation according to risk level

Ley de IA de la UE y alfabetización en IA

Desde el 2 de febrero de 2025, los proveedores y desplegadores deben asegurar una alfabetización suficiente en IA entre el personal. La capacitación es recomendada pero no obligatoria.

Las consideraciones clave incluyen el rol de la empresa, comprensión general de la IA, riesgos asociados y medidas de alfabetización adaptadas basadas en el conocimiento técnico y el contexto.

Implementación en Empresas

La implementación de la Ley de IA de la UE requiere que las organizaciones traduzcan las obligaciones regulatorias en controles operativos. Las auditorías juegan un papel crucial en este proceso al ayudar a las empresas a comprender cómo se utilizan los sistemas de IA, dónde existen riesgos y qué medidas de cumplimiento son necesarias.

Estas auditorías están destinadas a:

  • Identificar y clasificar los sistemas de IA según las categorías de riesgo de la Ley
  • Determinar si la organización actúa como proveedor, usuario o ambos
  • Evaluar cómo los sistemas de IA procesan datos y generan resultados
  • Identificar brechas en transparencia, supervisión humana, ciberseguridad y gestión de riesgos
  • Informar planes de remediación, estructuras de gobernanza y controles internos necesarios para el cumplimiento

En la práctica, estas evaluaciones forman la base de los programas de gobernanza de IA y permiten a las organizaciones priorizar los esfuerzos de cumplimiento en función del riesgo y la exposición regulatoria.

Cronograma de la Ley de IA de la UE

La Ley de IA de la UE sigue un cronograma de implementación por fases, permitiendo a las organizaciones adaptar sus programas de gobernanza, gestión de riesgos y cumplimiento. Los hitos clave incluyen la entrada en vigor, la aplicación de obligaciones específicas y el cumplimiento total.

Fechas clave de la Ley de IA de la UE

Key EU AI Act Dates

Fecha

Hito

1 de agosto de 2024

La Ley de IA de la UE entra en vigor y se convierte oficialmente en ley de la UE.

2 de febrero de 2025

Las prácticas de IA prohibidas entran en vigor. Se designan las autoridades nacionales de aplicación.

2 de agosto de 2025

Comienzan a aplicarse las normas para modelos de IA de propósito general (GPAI).

2 de agosto de 2026

La Ley de IA es plenamente aplicable a todas las categorías de riesgo.

2 de agosto de 2027

Los sistemas de IA de alto riesgo integrados en productos regulados deben cumplir plenamente.

Este enfoque por fases busca equilibrar la innovación con la certeza jurídica y permitir una adopción progresiva basada en el riesgo.

¿Qué es la Inteligencia Artificial (IA)?

La inteligencia artificial (IA) es un área de la informática que imita las capacidades cognitivas humanas mediante la identificación y clasificación de datos de entrada. Esta inteligencia puede basarse en flujos de trabajo programados o crearse con aprendizaje automático.

En el aprendizaje automático, los datos de entrenamiento se utilizan para enseñar a la IA a reconocer patrones y hacer predicciones. La Ley de IA define un sistema de IA como un sistema basado en máquinas que opera con diferentes niveles de autonomía y genera resultados como predicciones, contenido, recomendaciones o decisiones.

Ejemplos de sistemas de IA bajo la Ley de IA incluyen reconocimiento de emociones, reconocimiento facial, selección de candidatos, administración de justicia, atención médica (p. ej., análisis de síntomas), servicio al cliente, chatbots y IA generativa.

La IA generativa, como ChatGPT, se refiere a sistemas de IA que generan resultados de manera autónoma basados en datos de entrada utilizando aprendizaje automático y grandes modelos de lenguaje (LLM). Estos sistemas pueden cometer errores y "alucinar" —inventando declaraciones probables pero inexactas.

Protección de Datos

El uso de sistemas de IA que involucren datos personales debe cumplir con el RGPD e implementar prácticas de prevención de pérdida de datos. Las multas por infracciones pueden alcanzar el 4% de la facturación global o 20 millones de euros.

Las empresas deben asegurar el procesamiento legal, respetar la minimización de datos, la precisión y la confidencialidad, y cumplir con las obligaciones de información.

Las decisiones automatizadas con efectos legales deben involucrar discreción humana. Las medidas técnicas y organizativas (TOM) como el cifrado y la seudonimización son esenciales.

Se requiere una evaluación de impacto en la protección de datos para el procesamiento de alto riesgo.

Protección de Secretos Comerciales

Los secretos comerciales deben protegerse contra la adquisición y divulgación ilícitas. Los requisitos incluyen medidas de confidencialidad, restricciones de acceso y NDA.

Los sistemas de IA, los datos de entrenamiento y los resultados pueden constituir secretos comerciales. Las empresas deben regular el uso de datos de entrada y revisar los términos de terceros para evitar riesgos de divulgación.

Los problemas de derechos de autor surgen tanto en los datos de entrada como en los resultados de los sistemas de IA. El uso de contenido protegido para el entrenamiento está bajo escrutinio legal.

Las obras generadas por IA carecen de protección de derechos de autor bajo la ley actual, ya que no son creaciones humanas. Esto significa que dichos resultados están en el dominio público.

¿A quién se aplica la Ley de IA de la UE?

La Ley de IA de la UE se aplica ampliamente a las organizaciones involucradas en el desarrollo, distribución o uso de sistemas de IA que afectan al mercado de la UE, independientemente de dónde tenga su sede la organización.

Las partes responsables incluyen:

  • Proveedores de IA, como empresas que desarrollan o comercializan sistemas de IA o modelos de IA de propósito general en el mercado de la UE
  • Usuarios de IA, incluidas organizaciones que utilizan sistemas de IA en operaciones comerciales, toma de decisiones o servicios orientados al cliente
  • Importadores y distribuidores que introducen sistemas de IA en la cadena de suministro de la UE
  • Fabricantes de productos que integran IA en productos o servicios regulados

Dentro de las organizaciones, la responsabilidad generalmente recae en:

  • Liderazgo ejecutivo responsable de la gobernanza y supervisión de riesgos
  • Equipos legales y de cumplimiento que gestionan las obligaciones regulatorias
  • Equipos de TI, seguridad y datos responsables de la implementación, monitoreo y salvaguardias

La Ley responsabiliza a estas partes a través de mecanismos de aplicación, incluyendo multas, restricciones de mercado y exposición a la responsabilidad por incumplimiento o daños causados por sistemas de IA.

¿Qué Debe Revisarse en los Términos de Uso de Sistemas de IA?

Las empresas deben revisar los términos de uso de sistemas de IA de terceros, enfocándose en:

  • Ley y jurisdicción aplicables

  • Almacenamiento y uso de datos de entrada para entrenamiento

  • Derechos sobre los resultados

  • Indemnización contra reclamaciones de derechos de autor

  • Limitaciones de garantía y responsabilidad

¿Qué directrices deben seguir las empresas para cumplir con la Ley de IA de la UE?

Las directrices internas de IA ayudan a regular el uso de sistemas de IA por parte de los empleados. Estas pueden incluir:

  • Descripciones y autorizaciones de sistemas de IA

  • Instrucciones para el manejo de datos de entrada y resultados

  • Cumplimiento de confidencialidad y protección de datos

  • Medidas de ciberseguridad y obligaciones de transparencia

Resumen de la Ley de IA de la UE

La Ley de IA de la UE se aplicará en gran medida a partir del 2 de agosto de 2026 y debe ser implementada por las empresas que utilicen IA. Regula a los proveedores y desplegadores de IA a través de un enfoque basado en el riesgo: cuanto mayor sea el riesgo de daño social, más estrictas serán las reglas.

  • El cumplimiento con el GDPR es obligatorio al procesar datos personales utilizando sistemas de IA.
  • Los sistemas de IA deben estar protegidos contra el acceso no autorizado y los ciberataques.
  • Los secretos comerciales deben protegerse al utilizar sistemas de IA.
  • Los problemas de derechos de autor tanto en los datos de entrada como en los resultados están bajo escrutinio legal.
  • Las empresas son responsables por defectos en productos y servicios causados por IA.
  • Los términos de uso de sistemas de IA de terceros deben revisarse cuidadosamente.
  • La alfabetización en IA entre los empleados debe promoverse a través de directrices internas.

¿Cómo apoya Trend Micro el cumplimiento de la Ley de IA?

Mantenerse en cumplimiento con la Ley de IA de la UE significa más que solo entender las reglas: requiere una gobernanza activa, monitoreo de riesgos y una clara responsabilidad en todos sus sistemas de IA. Desde derechos de autor y responsabilidad hasta términos de uso y directrices internas, las organizaciones deben asegurarse de que cada aspecto del despliegue de IA esté alineado con los estándares legales en evolución.

Para apoyar esto, las empresas pueden aprovechar herramientas avanzadas que simplifican el cumplimiento y reducen la exposición a riesgos cibernéticos utilizando la plataforma de Gestión de Exposición al Riesgo Cibernético de Trend Micro, diseñada para ayudar a identificar vulnerabilidades, gestionar riesgos relacionados con IA y mantener la confianza en sus operaciones digitales.

Preguntas Frecuentes (FAQ)

Expand all Hide all

¿Qué es la Ley de IA de la UE?

add

La Ley de IA de la UE es una regulación que gobierna los sistemas de inteligencia artificial para garantizar la seguridad, la transparencia y la protección de los derechos fundamentales.

¿Cuándo entra en vigor la Ley de IA de la UE?

add

La Ley de IA de la UE entra en vigor en 2024, con plena aplicación esperada para 2026 en todos los estados miembros de la UE.

¿A quién se aplica la Ley de IA de la UE?

add

La Ley de IA de la UE se aplica a proveedores, usuarios e importadores de sistemas de IA que operen dentro del mercado de la Unión Europea o lo tengan como objetivo.

¿Cuándo fue aprobada la Ley de IA de la UE?

add

La Ley de IA de la UE fue aprobada por el Parlamento Europeo en 2024 después de extensas negociaciones y consultas con las partes interesadas.

¿Cómo cumplir con la Ley de IA de la UE?

add

Para cumplir, las organizaciones deben clasificar los sistemas de IA por riesgo, asegurar transparencia, realizar evaluaciones de conformidad y mantener documentación.

¿Qué sanciones existen por incumplimiento de la Ley de IA de la UE?

add
  • El incumplimiento de la Ley de IA de la UE puede implicar multas de hasta 35 millones € o 7% del volumen global.