¿Qué es el Acta de IA de la UE?

tball

El Acta de Inteligencia Artificial (Acta de IA) es una regulación pionera introducida por la Unión Europea para gobernar el desarrollo y uso de tecnologías de inteligencia artificial.

¿Qué es el Acta de IA de la UE?

El Acta de IA entró en vigor el 1 de agosto de 2024, con plena aplicación a partir del 2 de agosto de 2026. Las prácticas prohibidas han sido vetadas desde el 2 de febrero de 2025. El Acta promueve la innovación mientras protege la salud, la seguridad y los derechos fundamentales.

regulation according to risk level

Se aplica tanto a los proveedores como a los desplegadores de sistemas de IA, con los proveedores teniendo obligaciones más extensas. El Acta utiliza un enfoque basado en el riesgo:

  • Prácticas prohibidas: Incluye manipulación cognitivo-conductual, puntuación social, scraping de imágenes faciales e inferencia biométrica de atributos sensibles.
  • Sistemas de IA de alto riesgo: Utilizados en infraestructura crítica, recursos humanos, calificación crediticia o tribunales. Deben cumplir con estrictos requisitos que incluyen gestión de riesgos, marcado CE y supervisión humana.
  • Modelos de IA de propósito general (GPAI): Incluye LLM como ChatGPT. Los proveedores deben asegurar transparencia, cumplimiento de derechos de autor y ciberseguridad.
  • Sistemas de IA de riesgo limitado: Sujetos a obligaciones de transparencia, como etiquetado de contenido generado por IA y deep fakes.
  • Riesgo mínimo o nulo: Incluye videojuegos habilitados por IA y filtros de spam, que no están regulados bajo el Acta de IA.

Las violaciones del Acta de IA pueden resultar en multas de hasta 35 millones de euros o el 7% de la facturación anual global, lo que sea mayor.

Alfabetización en IA

Desde el 2 de febrero de 2025, los proveedores y desplegadores deben asegurar una alfabetización suficiente en IA entre el personal. La capacitación es recomendada pero no obligatoria.

Las consideraciones clave incluyen el rol de la empresa, comprensión general de la IA, riesgos asociados y medidas de alfabetización adaptadas basadas en el conocimiento técnico y el contexto.

Implementación en Empresas

El Acta de IA comprende 113 artículos y 13 anexos, requiriendo una planificación y recursos exhaustivos para su implementación. Las empresas deben realizar auditorías para evaluar:

  • Existencia y categorización de sistemas de IA
  • Tipo de operador y propósito previsto
  • Datos procesados y resultados generados
  • Cumplimiento con prácticas prohibidas y requisitos de alto riesgo
  • Obligaciones de transparencia, ciberseguridad y supervisión humana

¿Qué es la Inteligencia Artificial (IA)?

La inteligencia artificial (IA) es un área de la informática que imita las capacidades cognitivas humanas mediante la identificación y clasificación de datos de entrada. Esta inteligencia puede basarse en flujos de trabajo programados o crearse con aprendizaje automático.

En el aprendizaje automático, los datos de entrenamiento se utilizan para enseñar a la IA a reconocer patrones y hacer predicciones. El Acta de IA define un sistema de IA como un sistema basado en máquinas que opera con diferentes niveles de autonomía y genera resultados como predicciones, contenido, recomendaciones o decisiones.

Ejemplos de sistemas de IA bajo el Acta de IA incluyen reconocimiento de emociones, reconocimiento facial, selección de candidatos, administración de justicia, atención médica (p. ej., análisis de síntomas), servicio al cliente, chatbots y IA generativa.

La IA generativa, como ChatGPT, se refiere a sistemas de IA que generan resultados de manera autónoma basados en datos de entrada utilizando aprendizaje automático y grandes modelos de lenguaje (LLM). Estos sistemas pueden cometer errores y "alucinar" —inventando declaraciones probables pero inexactas.

Protección de Datos

El uso de sistemas de IA que involucren datos personales debe cumplir con el RGPD. Las multas por infracciones pueden alcanzar el 4% de la facturación global o 20 millones de euros.

Las empresas deben asegurar el procesamiento legal, respetar la minimización de datos, la precisión y la confidencialidad, y cumplir con las obligaciones de información.

Las decisiones automatizadas con efectos legales deben involucrar discreción humana. Las medidas técnicas y organizativas (TOM) como el cifrado y la seudonimización son esenciales.

Se requiere una evaluación de impacto en la protección de datos para el procesamiento de alto riesgo.

Protección de Secretos Comerciales

Los secretos comerciales deben protegerse contra la adquisición y divulgación ilícitas. Los requisitos incluyen medidas de confidencialidad, restricciones de acceso y NDA.

Los sistemas de IA, los datos de entrenamiento y los resultados pueden constituir secretos comerciales. Las empresas deben regular el uso de datos de entrada y revisar los términos de terceros para evitar riesgos de divulgación.

Los problemas de derechos de autor surgen tanto en los datos de entrada como en los resultados de los sistemas de IA. El uso de contenido protegido para el entrenamiento está bajo escrutinio legal.

Las obras generadas por IA carecen de protección de derechos de autor bajo la ley actual, ya que no son creaciones humanas. Esto significa que dichos resultados están en el dominio público.

¿Quién es Responsable por Defectos Relacionados con la IA?

Las empresas son responsables por defectos en productos y servicios, incluidos aquellos causados por IA.

La Directiva de Responsabilidad por Productos reformada de la UE impone una responsabilidad estricta por sistemas de IA y componentes defectuosos, cubriendo lesiones personales, daños a la propiedad y corrupción de datos.

¿Qué Debe Revisarse en los Términos de Uso de Sistemas de IA?

Las empresas deben revisar los términos de uso de sistemas de IA de terceros, enfocándose en:

  • Ley y jurisdicción aplicables
  • Almacenamiento y uso de datos de entrada para entrenamiento
  • Derechos sobre los resultados
  • Indemnización contra reclamaciones de derechos de autor
  • Limitaciones de garantía y responsabilidad

¿Qué Directrices Deben Seguir las Empresas para el Uso de IA?

Las directrices internas de IA ayudan a regular el uso de sistemas de IA por parte de los empleados. Estas pueden incluir:

  • Descripciones y autorizaciones de sistemas de IA
  • Instrucciones para el manejo de datos de entrada y resultados
  • Cumplimiento de confidencialidad y protección de datos
  • Medidas de ciberseguridad y obligaciones de transparencia

Resumen del Acta de IA de la UE

El Acta de IA de la UE se aplicará en gran medida a partir del 2 de agosto de 2026 y debe ser implementada por las empresas que utilicen IA. Regula a los proveedores y desplegadores de IA a través de un enfoque basado en el riesgo: cuanto mayor sea el riesgo de daño social, más estrictas serán las reglas.

  • El cumplimiento con el RGPD es obligatorio al procesar datos personales utilizando sistemas de IA.
  • Los sistemas de IA deben estar protegidos contra el acceso no autorizado y los ciberataques.
  • Los secretos comerciales deben protegerse al utilizar sistemas de IA.
  • Los problemas de derechos de autor tanto en los datos de entrada como en los resultados están bajo escrutinio legal.
  • Las empresas son responsables por defectos en productos y servicios causados por IA.
  • Los términos de uso de sistemas de IA de terceros deben revisarse cuidadosamente.
  • La alfabetización en IA entre los empleados debe promoverse a través de directrices internas.

¿Cómo apoya Trend Micro el cumplimiento del Acta de IA?

Mantenerse en cumplimiento con el Acta de IA de la UE significa más que solo entender las reglas: requiere una gobernanza activa, monitoreo de riesgos y una clara responsabilidad en todos sus sistemas de IA. Desde derechos de autor y responsabilidad hasta términos de uso y directrices internas, las organizaciones deben asegurarse de que cada aspecto del despliegue de IA esté alineado con los estándares legales en evolución.

Para apoyar esto, las empresas pueden aprovechar herramientas avanzadas que simplifican el cumplimiento y reducen la exposición a riesgos cibernéticos utilizando la plataforma de Gestión de Exposición al Riesgo Cibernético de Trend Micro, diseñada para ayudar a identificar vulnerabilidades, gestionar riesgos relacionados con IA y mantener la confianza en sus operaciones digitales.

Preguntas Frecuentes (FAQ)

Expand all Hide all

¿Qué es el Acta de IA de la UE?

add

El Acta de IA de la UE es una regulación que gobierna los sistemas de inteligencia artificial para garantizar la seguridad, la transparencia y la protección de los derechos fundamentales.

¿Cuándo entra en vigor el Acta de IA de la UE?

add

El Acta de IA de la UE entra en vigor en 2024, con plena aplicación esperada para 2026 en todos los estados miembros de la UE.

¿A quién se aplica el Acta de IA de la UE?

add

El Acta de IA de la UE se aplica a proveedores, usuarios e importadores de sistemas de IA que operen dentro del mercado de la Unión Europea o lo tengan como objetivo.

¿Cuándo fue aprobado el Acta de IA de la UE?

add

El Acta de IA de la UE fue aprobada por el Parlamento Europeo en 2024 después de extensas negociaciones y consultas con las partes interesadas.

¿Cómo cumplir con el Acta de IA de la UE?

add

Para cumplir, las organizaciones deben clasificar los sistemas de IA por riesgo, asegurar transparencia, realizar evaluaciones de conformidad y mantener documentación.