O Artificial Intelligence Act (AI Act) é uma regulamentação histórica introduzida pela União Europeia para reger o desenvolvimento e o uso de tecnologias de inteligência artificial.
Índice
O EU AI Act é um framework regulatório abrangente que rege como sistemas de inteligência artificial são desenvolvidos, colocados no mercado e utilizados dentro da União Europeia. Ele se aplica tanto a provedores quanto a implantadores de IA e estabelece obrigações legais claras com base em como os sistemas de IA impactam indivíduos, a sociedade e direitos fundamentais. O Act promove a inovação enquanto protege saúde, segurança e direitos fundamentais ao definir requisitos de transparência, gerenciamento de risco, supervisão humana, governança de dados e Cibersegurança em todo o ciclo de vida da IA.
O EU AI Act utiliza uma abordagem baseada em risco, o que significa que sistemas de IA são regulamentados de acordo com o nível de risco que representam para indivíduos e a sociedade. Quanto maior o risco potencial, mais rigorosas são as obrigações impostas a provedores e implantadores.
Violações do AI Act podem resultar em multas de até EUR 35 milhões ou 7 por cento do faturamento anual global, o que for maior.
Desde fevereiro de 2025, provedores e implantadores devem garantir alfabetização suficiente em IA entre os colaboradores. O treinamento é recomendado, mas não obrigatório.
As principais considerações incluem o papel da empresa, compreensão geral de IA, riscos associados e medidas de alfabetização personalizadas com base em conhecimento técnico e contexto.
A implementação do EU AI Act exige que as organizações traduzam obrigações regulatórias em controles operacionais. Auditorias desempenham um papel crítico nesse processo ao ajudar as empresas a entender como os sistemas de IA são usados, onde existem riscos e quais medidas de Compliance são necessárias.
Essas auditorias têm como objetivo:
Na prática, essas avaliações formam a base dos programas de governança de IA e permitem que as organizações priorizem esforços de Compliance com base em risco e exposição regulatória.
O EU AI Act segue uma linha do tempo de implementação em fases, dando às organizações tempo para adaptar seus programas de governança de IA, gerenciamento de risco e Compliance. Os principais marcos incluem quando a regulamentação entrou em vigor, quando obrigações específicas se aplicam e quando o Compliance total é exigido.
Data
Marco
1 de agosto de 2024
O EU AI Act entra em vigor, tornando-se oficialmente lei da UE.
2 de fevereiro de 2025
Práticas de IA proibidas entram em vigor e são banidas. Autoridades nacionais responsáveis pela fiscalização são designadas.
2 de agosto de 2025
Regras para modelos de IA de uso geral (GPAI) e obrigações de governança relacionadas começam a se aplicar.
2 de agosto de 2026
O AI Act passa a ser totalmente aplicável. Obrigações de Compliance se aplicam a todas as categorias de risco de IA, incluindo sistemas de alto risco.
2 de agosto de 2027
Sistemas de IA de alto risco incorporados em produtos regulados devem estar totalmente em conformidade com os requisitos do EU AI Act.
Essa abordagem em fases busca equilibrar inovação com segurança jurídica, permitindo que as organizações implementem progressivamente governança, salvaguardas técnicas e mecanismos de supervisão com base no risco de IA.
Inteligência artificial (IA) é uma área da ciência da computação que imita capacidades cognitivas humanas ao identificar e classificar dados de entrada. Essa inteligência pode ser baseada em workflows programados ou criada com machine learning.
Em machine learning, dados de treinamento são usados para ensinar a IA a reconhecer padrões e fazer previsões. O AI Act define um sistema de IA como um sistema baseado em máquina que opera com níveis variados de autonomia e gera resultados como previsões, conteúdo, recomendações ou decisões.
Exemplos de sistemas de IA sob o AI Act incluem reconhecimento de emoções, reconhecimento facial, seleção de candidatos, administração da justiça, saúde (por exemplo, análise de sintomas), atendimento ao cliente, chatbots e IA generativa.
A IA generativa, como o ChatGPT, refere-se a sistemas de IA que geram resultados de forma autônoma com base em dados de entrada usando machine learning e large language models (LLMs). Esses sistemas podem cometer erros e 'alucinar' — inventando afirmações prováveis, porém imprecisas.
O uso de sistemas de IA que envolvem dados pessoais deve estar em conformidade com o GDPR e implementar práticas de prevenção contra perda de dados. Multas por violações podem chegar a 4 por cento do faturamento global ou EUR 20 milhões.
As empresas devem garantir processamento lícito, respeitar minimização de dados, precisão e confidencialidade, e cumprir obrigações de informação.
Decisões automatizadas com efeitos legais devem envolver discernimento humano. Medidas técnicas e organizacionais (TOM), como criptografia e pseudonimização, são essenciais.
Uma avaliação de impacto de proteção de dados é obrigatória para processamento de alto risco.
Segredos comerciais devem ser protegidos contra aquisição e divulgação ilícitas. Os requisitos incluem medidas de confidencialidade, restrições de acesso e NDAs.
Sistemas de IA, dados de treinamento e resultados podem constituir segredos comerciais. As empresas devem regular o uso de inputs e revisar termos de terceiros para evitar riscos de divulgação.
Questões de direitos autorais surgem tanto nos lados de input quanto de output dos sistemas de IA. O uso de conteúdo protegido para treinamento está sob escrutínio legal.
Obras geradas por IA não têm proteção de direitos autorais sob a legislação atual, pois não são criações humanas. Isso significa que tais outputs estão em domínio público.
O EU AI Act se aplica amplamente a organizações envolvidas no desenvolvimento, distribuição ou uso de sistemas de IA que impactam o mercado da UE, independentemente de onde a organização esteja sediada.
As partes responsáveis incluem:
Dentro das organizações, a responsabilidade normalmente recai sobre:
O Act responsabiliza essas partes por meio de mecanismos de fiscalização, incluindo multas, restrições de mercado e exposição à responsabilidade por não conformidade ou danos causados por sistemas de IA.
O EU AI Act não se aplica diretamente no Reino Unido, pois o Reino Unido não faz mais parte da União Europeia. No entanto, organizações sediadas no Reino Unido ainda podem ser afetadas se desenvolverem, venderem ou implantarem sistemas de IA que sejam usados dentro da UE ou impactem indivíduos da UE.
Nesses casos, empresas do Reino Unido podem ser obrigadas a cumprir o EU AI Act como legislação extraterritorial. Isso torna o alinhamento com os requisitos do EU AI Act relevante para organizações do Reino Unido que operam internacionalmente ou atendem mercados da UE, particularmente em casos regulados ou de alto risco.
As empresas devem revisar termos de sistemas de IA de terceiros, com foco em:
Lei aplicável e jurisdição
Armazenamento e uso de input para treinamento
Direitos sobre o output
Indenização contra reivindicações de direitos autorais
Limitações de garantia e responsabilidade
Diretrizes internas de IA ajudam a regular o uso de sistemas de IA pelos colaboradores. Isso pode incluir:
Descrições e autorizações de sistemas de IA
Instruções para tratamento de input e output
Compliance com confidencialidade e proteção de dados
Medidas de Cibersegurança e obrigações de transparência
O EU AI Act se aplicará amplamente a partir de 2 de agosto de 2026 e deverá ser implementado por empresas que utilizam IA. Ele regula provedores e implantadores de IA por meio de uma abordagem baseada em risco quanto maior o risco de dano social, mais rigorosas são as regras.
O Compliance com o GDPR é obrigatório ao processar dados pessoais usando sistemas de IA.
Sistemas de IA devem ser protegidos contra acesso não autorizado e ataques cibernéticos.
Segredos comerciais devem ser protegidos ao usar sistemas de IA.
Questões de direitos autorais tanto no input quanto no output estão sob escrutínio legal.
As empresas são responsáveis por defeitos em produtos e serviços causados por IA.
Os termos de uso de sistemas de IA de terceiros devem ser cuidadosamente revisados.
A alfabetização em IA entre os colaboradores deve ser promovida por meio de diretrizes internas.
Manter Compliance com o EU AI Act exige mais do que apenas entender as regras requer governança ativa, monitoramento de riscos e responsabilidade clara em todos os sistemas de IA. De direitos autorais e responsabilidade a termos de uso e diretrizes internas, as organizações devem garantir que cada aspecto da implantação de IA esteja alinhado aos padrões legais em evolução.
Para apoiar isso, as empresas podem aproveitar ferramentas avançadas que simplificam o Compliance e reduzem a exposição a riscos cibernéticos usando a plataforma Cyber Risk Exposure Management da Trend Micro, projetada para ajudar a identificar vulnerabilidades, gerenciar riscos relacionados à IA e manter a confiança em todas as operações digitais.
Fernando Cardoso é o Vice-Presidente de Gerenciamento de Produto na Trend Micro, com foco no mundo em constante evolução de IA e cloud. Sua carreira começou como Network and Sales Engineer, onde aprimorou suas habilidades em datacenters, cloud, DevOps e Cibersegurança — áreas que continuam sendo sua paixão.
O EU AI Act é uma regulamentação que rege sistemas de inteligência artificial para garantir segurança, transparência e proteção de direitos fundamentais.
O EU AI Act entra em vigor em 2024, com aplicação total prevista até 2026 em todos os Estados-membros da UE.
O EU AI Act se aplica a provedores, usuários e importadores de sistemas de IA que operam ou têm como alvo o mercado da União Europeia.
O EU AI Act foi aprovado pelo Parlamento Europeu em 2024 após extensas negociações e consultas a partes interessadas.
Para estar em conformidade, as organizações devem classificar sistemas de IA por risco, garantir transparência, conduzir avaliações de conformidade e manter documentação.