人工智慧法案 (AI Act) 是歐盟所導入的一套具指標意義的法案,旨在規範人工智慧技術的開發與使用該如何治理。
目錄
歐盟 AI 法案是一套完整的法規框架,旨在規範人工智慧系統的開發、上市以及在歐盟境內的使用。它對於 AI 的供應者和部署者皆同時適用,並根據 AI 系統對個人、社會和基本權利的影響制定了明確的法律義務。該法案在提倡創新的同時,也針對整個 AI 生命週期的透明度、風險管理、人為監督、資料治理以及網路資安制定了一些要求來保障健康、安全與基本權利。
歐盟 AI 法案採用了一套風險導向方法,這意味著 AI 系統將根據其對個人和社會的風險程度而受到管制。潛在的風險越高,該法案對供應者和部署者所施加的義務就越嚴格。
違反 AI 法案將導致最高 3,500 萬歐元或全球年營收 7% 的罰鍰,取較高者。
自 2025 年 2 月 2 日起,供應者和部署者必須確保其人員具備充分的 AI 素養,建議應為其提供教育訓練,但非強制。
主要的考量點包括:在公司擔任的職務、對 AI 的通盤理解、涉及的風險,以及根據技術知識和情境量身制定其素養的評量方式。
要落實歐盟 AI 法案,企業必須將法規義務轉化成營運上的控管措施,稽核在這過程當中扮演著關鍵角色,能協助企業了解 AI 系統的使用情況、何處存在著風險,以及需要哪些合規措施。
稽核的用意在於:
在實務上,這些評量就構成了 AI 治理計畫的基礎,能讓企業根據風險與法規曝險來安排合規作業的優先次序。
歐盟 AI 法案採分階段實施,好讓企業有時間調整自己的 AI 治理、風險管理,以及合規計畫。其主要里程碑包括:法規何時生效、特定義務何時開始適用,以及何時必須全面合規。
日期
里程碑
2024 年 8 月 1 日
歐盟 AI 法案生效,正式成為歐盟法律。
2025 年 2 月 2 日
絕對禁止的 AI 實務生效並已禁止,同時也指派了負責執法的政府機關。
2025 年 8 月 2 日
針對通用 AI (GPAI) 模型的規定與相關治理義務開始適用。
2026 年 8 月 2 日
AI 法案全面適用,合規義務將適用所有 AI 風險類別,包括高風險系統。
2027 年 8 月 2 日
內嵌在受監管產品中的高風險 AI 系統必須完全符合歐盟 AI 法案的要求。
這套分階段實施方法是為了在創新與法律確定性之間取得平衡,讓企業能夠根據 AI 風險來逐步落實治理手段、技術防護,以及監督機制。
人工智慧 (AI) 是電腦科學的一個領域,藉由輸入資料的辨識及分類來模擬人類的認知能力。這項智慧可透過程式化工作流程或機器學習來達成。
機器學習是使用訓練資料來教導 AI 如何辨識模式並做出預測。AI 法案將 AI 系統定義為一套以機器為基礎的系統,具備一定程度的自主性,並且可產生預測、內容、建議或決策做為輸出。
AI 法案所規範的 AI 系統範例包括:情緒辨識、臉部辨識、候選人篩選、司法行政、醫療 (如症狀分析)、客戶服務、聊天機器人,以及生成式 AI。
生成式 AI (如 ChatGPT) 是指使用機器學習和大型語言模型 (LLM) 來根據輸入資料自動產生結果的 AI 系統。這類系統有可能犯錯,並產生「幻覺」(也就是自己發明一些有可能、但不正確的陳述)。
商業機密必須受到保護以防範非法取得和揭露,這類要求包括:保密措施、存取限制以及保密協議 (NDA)。
AI 系統、訓練資料以及輸出都有可能構成商業機密,企業必須規範輸入資料的使用,並仔細審查第三方廠商的條款以避免揭露風險。
AI 系統的輸入和輸出都可能引發著作權問題,使用受保護的內容來進行訓練將受到法律的嚴格檢視。
在現行法律下,AI 生成的作品缺乏著作權保護,因為它們並非人類創作,這表示這類輸出都屬於公共財。
企業只要是涉及開發、經銷或使用影響歐盟市場的 AI 系統,就適用歐盟 AI 法案,不論企業總部位於何處。
需承擔責任的主體包括:
在企業內,這些責任通常分散在:
該法案會透過執法機制來要求這些單位負起責任,包括:罰鍰、市場限制,以及對 AI 系統導致的違規或傷害負起法律責任。
歐盟 AI 法案並不直接適用於英國,因為英國已不再是歐盟的成員。不過,英國境內的企業若負責開發、銷售或部署歐盟境內使用的 AI 系統或衝擊到歐盟居民,還是可能受到影響。
在這種情況下,英國企業可能必須將歐盟 AI 法案當成具域外效力的法規來遵守。這使得歐盟 AI 法案的要求,也適用於全球營運或服務歐盟市場的英國企業,尤其是在受監管或高風險的應用情境。
企業必須審慎檢視第三方 AI 系統的條款,並聚焦在:
適用的法律與管轄權。
訓練用輸入資料的儲存與使用。
對於輸出資料所擁有的權利。
著作權索償保障。
保固與責任限制。
內部 AI 指引有助於規範員工對 AI 系統的使用,包括:
AI 系統的描述與授權。
輸入與輸出處理方式的指示。
遵守機密性與資料保護規範。
網路資安措施與透明度義務。
歐盟 AI 法案整體上將自 2026 年 8 月 2 日開始實施,所有使用 AI 的企業都必須確實遵守。它藉由一套風險導向方法來規範 AI 的供應者和部署者:可能造成社會傷害的風險越高,規定就越嚴格。
當使用 AI 系統來處理個人資料時,務必遵守 GDPR。
AI 系統必須防範未經授權的存取和網路攻擊。
當使用 AI 系統時,必須保護商業機密。
輸入端和輸出端的著作權問題將受到法律的嚴格檢視。
企業必須對 AI 所導致的產品與服務缺陷負起責任。
第三方 AI 系統的使用條款必須經過審慎檢視。
員工間的 AI 素養應透過內部指引來加以提升。
要遵守歐盟 AI 法案,不僅意味著要了解其規定,還要主動治理、監控風險,並且明定您 AI 系統的責任歸屬。從著作權與法律責任、到使用條款與內部指引,企業必須確保 AI 部署的每一個層面都符合不斷變化的法律標準。
為此,企業可善用趨勢科技 Cyber Risk Exposure Management 資安曝險管理平台的進階工具來簡化合規作業並降低資安曝險,協助您發掘漏洞、管理 AI 相關風險,並維護您整體數位營運的可信任度。
Fernando Cardoso 是趨勢科技產品管理副總裁,專精於不斷演進的 AI 與雲端世界。在他職業生涯的一開始,曾擔任過網路與銷售工程師,磨練了他在資料中心、雲端、DevOps 以及網路資安領域方面的技能,而這些領域至今依然能持續激發他的熱情。
歐盟 AI 法案是一套規範人工智慧系統以確保安全、透明度以及保護基本權利的法規。
歐盟 AI 法案在 2024 年開始生效,預計在 2026 年全面適用至所有歐盟成員國。
歐盟 AI 法案適用於在歐盟境內運作或以歐盟市場為目標的 AI 系統供應商、使用者和進口商。
歐盟 AI 法案是在 2024 年經由歐洲議會 (European Parliament) 的廣泛協商並與利害關係人磋商之後通過。
要遵守該法規,企業必須根據風險來將 AI 系統分類、確保透明度、執行合規性評估,並且保留文件記錄。