El Acta de Inteligencia Artificial (Acta de IA) es una regulación pionera introducida por la Unión Europea para gobernar el desarrollo y uso de tecnologías de inteligencia artificial.
Table des matières
El Acta de IA entró en vigor el 1 de agosto de 2024, con plena aplicación a partir del 2 de agosto de 2026. Las prácticas prohibidas han sido vetadas desde el 2 de febrero de 2025. El Acta promueve la innovación mientras protege la salud, la seguridad y los derechos fundamentales.
Se aplica tanto a los proveedores como a los desplegadores de sistemas de IA, con los proveedores teniendo obligaciones más extensas. El Acta utiliza un enfoque basado en el riesgo:
Las violaciones del Acta de IA pueden resultar en multas de hasta 35 millones de euros o el 7% de la facturación anual global, lo que sea mayor.
Desde el 2 de febrero de 2025, los proveedores y desplegadores deben asegurar una alfabetización suficiente en IA entre el personal. La capacitación es recomendada pero no obligatoria.
Las consideraciones clave incluyen el rol de la empresa, comprensión general de la IA, riesgos asociados y medidas de alfabetización adaptadas basadas en el conocimiento técnico y el contexto.
El Acta de IA comprende 113 artículos y 13 anexos, requiriendo una planificación y recursos exhaustivos para su implementación. Las empresas deben realizar auditorías para evaluar:
La inteligencia artificial (IA) es un área de la informática que imita las capacidades cognitivas humanas mediante la identificación y clasificación de datos de entrada. Esta inteligencia puede basarse en flujos de trabajo programados o crearse con aprendizaje automático.
En el aprendizaje automático, los datos de entrenamiento se utilizan para enseñar a la IA a reconocer patrones y hacer predicciones. El Acta de IA define un sistema de IA como un sistema basado en máquinas que opera con diferentes niveles de autonomía y genera resultados como predicciones, contenido, recomendaciones o decisiones.
Ejemplos de sistemas de IA bajo el Acta de IA incluyen reconocimiento de emociones, reconocimiento facial, selección de candidatos, administración de justicia, atención médica (p. ej., análisis de síntomas), servicio al cliente, chatbots y IA generativa.
La IA generativa, como ChatGPT, se refiere a sistemas de IA que generan resultados de manera autónoma basados en datos de entrada utilizando aprendizaje automático y grandes modelos de lenguaje (LLM). Estos sistemas pueden cometer errores y "alucinar" —inventando declaraciones probables pero inexactas.
El uso de sistemas de IA que involucren datos personales debe cumplir con el RGPD. Las multas por infracciones pueden alcanzar el 4% de la facturación global o 20 millones de euros.
Las empresas deben asegurar el procesamiento legal, respetar la minimización de datos, la precisión y la confidencialidad, y cumplir con las obligaciones de información.
Las decisiones automatizadas con efectos legales deben involucrar discreción humana. Las medidas técnicas y organizativas (TOM) como el cifrado y la seudonimización son esenciales.
Se requiere una evaluación de impacto en la protección de datos para el procesamiento de alto riesgo.
Los secretos comerciales deben protegerse contra la adquisición y divulgación ilícitas. Los requisitos incluyen medidas de confidencialidad, restricciones de acceso y NDA.
Los sistemas de IA, los datos de entrenamiento y los resultados pueden constituir secretos comerciales. Las empresas deben regular el uso de datos de entrada y revisar los términos de terceros para evitar riesgos de divulgación.
Los problemas de derechos de autor surgen tanto en los datos de entrada como en los resultados de los sistemas de IA. El uso de contenido protegido para el entrenamiento está bajo escrutinio legal.
Las obras generadas por IA carecen de protección de derechos de autor bajo la ley actual, ya que no son creaciones humanas. Esto significa que dichos resultados están en el dominio público.
Las empresas son responsables por defectos en productos y servicios, incluidos aquellos causados por IA.
La Directiva de Responsabilidad por Productos reformada de la UE impone una responsabilidad estricta por sistemas de IA y componentes defectuosos, cubriendo lesiones personales, daños a la propiedad y corrupción de datos.
Las empresas deben revisar los términos de uso de sistemas de IA de terceros, enfocándose en:
Las directrices internas de IA ayudan a regular el uso de sistemas de IA por parte de los empleados. Estas pueden incluir:
El Acta de IA de la UE se aplicará en gran medida a partir del 2 de agosto de 2026 y debe ser implementada por las empresas que utilicen IA. Regula a los proveedores y desplegadores de IA a través de un enfoque basado en el riesgo: cuanto mayor sea el riesgo de daño social, más estrictas serán las reglas.
Mantenerse en cumplimiento con el Acta de IA de la UE significa más que solo entender las reglas: requiere una gobernanza activa, monitoreo de riesgos y una clara responsabilidad en todos sus sistemas de IA. Desde derechos de autor y responsabilidad hasta términos de uso y directrices internas, las organizaciones deben asegurarse de que cada aspecto del despliegue de IA esté alineado con los estándares legales en evolución.
Para apoyar esto, las empresas pueden aprovechar herramientas avanzadas que simplifican el cumplimiento y reducen la exposición a riesgos cibernéticos utilizando la plataforma de Gestión de Exposición al Riesgo Cibernético de Trend Micro, diseñada para ayudar a identificar vulnerabilidades, gestionar riesgos relacionados con IA y mantener la confianza en sus operaciones digitales.
El Acta de IA de la UE es una regulación que gobierna los sistemas de inteligencia artificial para garantizar la seguridad, la transparencia y la protección de los derechos fundamentales.
El Acta de IA de la UE entra en vigor en 2024, con plena aplicación esperada para 2026 en todos los estados miembros de la UE.
El Acta de IA de la UE se aplica a proveedores, usuarios e importadores de sistemas de IA que operen dentro del mercado de la Unión Europea o lo tengan como objetivo.
El Acta de IA de la UE fue aprobada por el Parlamento Europeo en 2024 después de extensas negociaciones y consultas con las partes interesadas.
Para cumplir, las organizaciones deben clasificar los sistemas de IA por riesgo, asegurar transparencia, realizar evaluaciones de conformidad y mantener documentación.