인공지능법(AI Act)은 인공지능 기술의 개발 및 사용을 통제하기 위해 유럽연합이 도입한 획기적인 규정입니다.
목차
EU AI 법은 유럽 연합 내에서 인공 지능 시스템이 개발, 출시 및 사용되는 방법을 관리하는 포괄적인 규제 프레임워크입니다. AI 제공업체와 배포자 모두에게 적용되며 AI 시스템이 개인, 사회 및 기본 권리에 미치는 영향을 기반으로 명확한 법적 의무를 설정합니다. 이 법은 AI 수명 주기 전반에 걸쳐 투명성, 위험 관리, 인적 감독, 데이터 거버넌스 및 사이버 보안에 대한 요구 사항을 설정하여 건강, 안전 및 기본 권리를 보호하면서 혁신을 촉진합니다.
EU AI 법은 AI 시스템이 개인과 사회에 미치는 위험 수준에 따라 규제하는 위험 기반 접근법을 사용합니다. 잠재적 위험이 높을수록 공급자와 배포자에게 부과되는 의무는 더 엄격합니다.
AI법을 위반하면 최대 3,500만 유로 또는 전 세계 연간 매출액의 7% 중 높은 금액의 벌금이 부과될 수 있습니다.
2025년 2월 2일부터 제공업체와 배포자는 직원 간에 충분한 AI 활용성을 보장해야 합니다. 교육이 권장되지만 필수는 아닙니다.
주요 고려 사항에는 회사의 역할, AI에 대한 일반적인 이해, 관련 위험 및 기술적 지식과 맥락을 기반으로 한 맞춤형 문해력 조치가 포함됩니다.
EU AI 법의 이행은 조직이 규제 의무를 운영 통제로 전환하도록 요구합니다. 감사는 기업들이 AI 시스템의 사용 방법, 위험 존재 위치 및 필요한 규정 준수 조치를 이해하도록 지원함으로써 이 프로세스에서 중요한 역할을 합니다.
이러한 감사의 목적은 다음과 같습니다.
실제로 이러한 평가는 AI 거버넌스 프로그램의 토대를 형성하며 조직이 위험 및 규제 노출을 기반으로 규정 준수 노력의 우선순위를 정할 수 있도록 합니다.
EU AI 법은 단계별 구현 일정을 따르며, 조직이 AI 거버넌스, 위험 관리 및 규정 준수 프로그램을 조정할 시간을 제공합니다. 주요 이정표에는 규정이 발효된 시기, 특정 의무가 적용되는 시기 및 완전한 규정 준수가 필요한 시기가 포함됩니다.
날짜
마일스톤
2024년 8월 1일
EU AI 법은 공식적으로 EU 법이 되어 시행됩니다.
2025년 2월 2일
금지된 AI 관행이 발효되어 금지됩니다. 법 집행을 담당하는 각 회원국 감독 기관이 지정됩니다.
2025년 8월 2일
범용 AI(GPAI) 모델 및 관련 거버넌스 의무에 대한 규칙이 적용되기 시작합니다.
2026년 8월 2일
AI 법은 전적으로 적용됩니다. 규정 준수 의무는 고위험 시스템을 포함한 모든 AI 위험 범주에 적용됩니다.
2027년 8월 2일
규제 대상 제품에 내장된 고위험 AI 시스템은 EU AI 법 요건을 완전히 준수해야 합니다.
이 단계별 접근 방식은 혁신과 법적 확실성의 균형을 맞추기 위한 것이며, 이를 통해 조직은 AI 위험에 기반한 거버넌스, 기술적 보호 및 감독 메커니즘을 점진적으로 구현할 수 있습니다.
인공지능(AI)은 입력 데이터를 식별하고 분류하여 인간의 인지 능력을 모방하는 컴퓨터 과학 분야입니다. 이 인텔리전스는 프로그래밍된 워크플로우를 기반으로 하거나 머신러닝을 통해 생성될 수 있습니다.
머신 러닝에서 트레이닝 데이터는 AI가 패턴을 인식하고 예측하도록 가르치는 데 사용됩니다. AI 법은 AI 시스템을 다양한 수준의 자율성으로 작동하고 예측, 콘텐츠, 추천 또는 결정과 같은 출력을 생성하는 머신 기반 시스템으로 정의합니다.
AI법에 따른 AI 시스템의 예로는 감정 인식, 얼굴 인식, 후보자 선정, 정의 관리, 의료(예: 증상 분석), 고객 서비스, 챗봇 및 생성 AI가 있습니다.
ChatGPT와 같은 세대 AI는 머신 러닝 및 대형 언어 모델(LLM)을 사용하여 입력 데이터를 기반으로 자동으로 결과를 생성하는 AI 시스템을 의미합니다. 이러한 시스템은 실수를 하고 '환각'하여 개연성이 높지만 부정확한 진술을 발명할 수 있습니다.
영업 비밀은 불법적인 획득 및 공개로부터 보호되어야 합니다. 요구 사항에는 기밀 유지 조치, 액세스 제한 및 NDA가 포함됩니다.
AI 시스템, 교육 데이터 및 출력은 영업 비밀이 될 수 있습니다. 회사는 공개 위험을 피하기 위해 입력 사용을 규제하고 제3자 조건을 검토해야 합니다.
저작권 문제는 AI 시스템의 입력 및 출력 측면에서 발생합니다. 교육을 위해 보호된 콘텐츠를 사용하는 것은 법적 감시 하에 있습니다.
AI 생성 저작물은 인간의 창작물이 아니므로 현행 법률에 따른 저작권 보호가 부족합니다. 이는 해당 결과물이 퍼블릭 도메인에 속함을 의미합니다.
EU AI 법은 조직의 본사 위치에 관계없이 EU 시장에 영향을 미치는 AI 시스템의 개발, 배포 또는 사용에 관여하는 조직에 광범위하게 적용됩니다.
책임 당사자에는 다음이 포함됩니다.
조직 내에서 책임은 일반적으로 다음과 같습니다.
이 법은 이러한 당사자들에게 벌금, 시장 제한 및 AI 시스템으로 인한 미준수 또는 피해에 대한 책임 노출을 포함한 집행 메커니즘을 통해 책임을 지도록 합니다.
영국은 더 이상 유럽연합에 속하지 않으므로 EU AI 법은 영국에서 직접 적용되지 않습니다. 그러나 영국에 기반을 둔 조직은 EU 내에서 사용되는 AI 시스템을 개발, 판매 또는 배포하거나 EU 개인에게 영향을 미치는 경우에도 여전히 영향을 받을 수 있습니다.
그러한 경우 영국 기업은 영토 외 법률로서 EU AI 법률을 준수해야 할 수 있습니다. 이는 국제적으로 운영되거나 EU 시장에 서비스를 제공하는 영국 조직, 특히 규제 또는 고위험 사용 사례와 관련된 EU AI 법 요구 사항에 부합합니다.
기업은 다음에 중점을 두고 타사 AI 시스템 조건을 검토해야 합니다.
관련 법률 및 관할권
교육에 대한 입력 저장 및 사용
출력 권한
저작권 청구에 대한 배상
보증 및 책임 제한
내부 AI 지침은 직원의 AI 시스템 사용을 규제하는 데 도움이 됩니다. 여기에는 다음이 포함될 수 있습니다.
AI 시스템에 대한 설명 및 승인
입력 및 출력 처리 지침
기밀성 및 데이터 보호 규정 준수
사이버 보안 조치 및 투명성 의무
EU AI 법은 2026년 8월 2일부터 주로 적용되며 AI를 사용하는 회사에서 도입해야 합니다. 위험 기반 접근 방식을 통해 AI 제공업체와 배포자를 규제합니다. 사회적 피해 위험이 높을수록 규칙이 더 엄격합니다.
AI 시스템을 사용하여 개인 데이터를 처리할 때 GDPR을 준수해야 합니다.
AI 시스템은 무단 접근 및 사이버 공격으로부터 보호되어야 합니다.
AI 시스템을 사용할 때는 영업 비밀을 보호해야 합니다.
입력 및 출력 측의 저작권 문제는 법적 감시 대상입니다.
기업은 AI로 인한 제품 및 서비스의 결함에 대해 책임을 집니다.
제3자 AI 시스템의 사용 약관을 주의 깊게 검토해야 합니다.
직원 간의 AI 이해력은 내부 지침을 통해 홍보해야 합니다.
EU AI법을 준수한다는 것은 단순히 규칙을 이해하는 것 이상을 의미합니다. 즉, AI 시스템 전반에 걸쳐 적극적인 거버넌스, 위험 모니터링 및 명확한 책임이 필요합니다. 저작권과 책임에서 이용 약관과 내부 지침에 이르기까지 조직은 AI 배포의 모든 측면이 진화하는 법적 표준에 부합하도록 보장해야 합니다.
이를 지원하기 위해 기업은 취약점을 식별하고 AI 관련 위험을 관리하며 디지털 운영 전반에 걸쳐 신뢰를 유지하도록 설계된 트렌드마이크로의 사이버 위험 노출 관리 플랫폼을 사용하여 규정 준수를 단순화하고 사이버 위험에 대한 노출을 줄이는 고급 도구를 활용할 수 있습니다.
Fernando Cardoso 는 트렌드마이크로의 제품 관리 부사장으로, 끊임없이 진화하는 AI 및 클라우드 세계에 중점을 두고 있습니다. 그는 네트워크 및 영업 엔지니어로 시작하여 데이터 센터, 클라우드, DevOps 및 사이버 보안 분야에서 자신의 기술을 연마했으며, 이는 계속해서 열정을 불러일으키고 있습니다.
EU AI 법은 안전, 투명성 및 기본 권리 보호를 보장하기 위해 인공 지능 시스템을 관리하는 규정입니다.
EU AI 법은 2024년에 발효되며, 2026년까지 모든 EU 회원국에 완전한 적용이 예상됩니다.
EU AI 법은 유럽연합 시장 내에서 운영되거나 유럽 연합 시장을 대상으로 하는 AI 시스템의 공급자, 사용자 및 수입자에게 적용됩니다.
EU AI 법은 광범위한 협상 및 이해관계자 상담 후 2024년 유럽 의회에서 통과되었습니다.
이를 준수하기 위해 조직은 AI 시스템을 위험별로 분류하고 투명성을 보장하며 적합성 평가를 수행하고 문서를 유지해야 합니다.