人工智能公司政策是一套與核准使用人工智能技術相關的運作規則。可協助機構保持合規、確保資料私隱及維持數碼保安。
目錄
要有效教育員工最佳實務及緩解風險,公司政策需要專注於幾個重點,包括:
首先要釐清設定人工智能公司政策的目的,並應清楚指明誰人需要遵循規定,包括外判人員或代理機構,與及內部員工等。
政策只應列出已獲核准的人工智能相關應用程式,並列出每個程式的正確存取程序以確保合規。不過,登入身份驗證資訊等敏感資料就不應包括在內,而應在個別員工要求存取或新員工入職時以安全方式由管理層提供。
總結使用人工智能的正當流程,例如在項目清單中,有助用戶了解適當的步驟並確實遵守。亦可利用此機會實施運作防護,與及傳遞處理許可、內部傳訊、人工智能生成內容的品質、管制和授予人工智能系統的資料與工具存取的方式。此外,亦可列出在以上程序疑似出現風險或漏洞時的處理方式。
此節應釐清已核准的人工智能應用程式可在何時、何地及如何使用。如果有一些獨特而合理的例外情況,亦應在上列出。像其他政策一樣,所使用的語言應該清楚、簡單及容易明白,以減低錯誤解讀或誤會的風險。
本節提醒用戶檢視獲許可存取的人工智能工具的條款與條件,從而協助避免誤用及/或責任相關問題。用戶應留意保護資料私隱的重要性,並避免抄襲,尊重知識產權及其擁有人,與及不要讓有問題的工具存取機密資訊。
列出機構及團隊在使用人工智能時需要保持合規的監管機構及相關規例,包括已生效的政府法令及法務、保安及/或資訊科技團隊的要求。
透過多個策略性優先項目以達致統一成效,泛加拿大人工智能策略的目標是「為人民及地球帶來正面的社會、經濟及環境好處。」
結合研究、政策及建設工程來專注以具道德及負責任態度推動人工智能。此外,Microsoft 也在 2024 年 5 月發佈了一份完整的負責任的人工智能透明度報告 ,內容涵蓋從對應、衡量、管理 人工智能風險到建立安全、負責任的前端人工智能模型。
NIST 一直都與主要的私人及公共持份者和聯邦政府機關密切合作,開發新的人工智能標準。他們「高度參與美國及國際性的人工智能政策建設,例如 US-EU Trade and Technology Council、OECD、Council of Europe、Quadrilateral Security Dialogue」及其他倡議。NIST 亦與美國商務部的國際貿易管理局及美國國務院在這方面合作。
在 2024 年 7 月,NIST 發佈了四份刊物以「協助改善人工智能系統的安全、保安及可信性。」 包括:
人工智能道德規範涉及管理負責任開發、部署及使用人工智能系統的原則及指引,它解決了安全、資訊保安、公平、責任歸屬、透明度、隱私、人力控管、社會責任及持續改進等問題。
OpenAI 研究師發佈的報告(arXiv:2307.03718: Frontier AI Regulation: Managing Emerging Risks to Public Safety)點出了多個與規範前沿人工智能模型相關的挑戰及如何協助保護用戶。它指出,「前沿人工智能模型帶來了明顯的合規挑戰:危險的功能可能出乎意料地出現;很難有效防止已部署的模型被濫用;與及很難阻止一個模型的功能被增生。」
此外,報告亦指出「最少有三個基礎構成要素」需要規管:
企業可採用兩種搭配的方式來制定有效的人工智能政策:善用內部資訊保安團隊、與專業顧問公司合作,以及執行紅隊評估。雖然內部團隊或顧問都專注於制定並實施基本政策,但 Red Teaming 透過發掘漏洞和潛在風險來提供關鍵啟示,確保政策的完善與完整。
顧問公司具備人工智能管治、合規與最佳實務方面的專業知識,可協助企業制定政策來解決關鍵領域,例如資料私隱、知識產權保護、風險防範,同時又能符合產業標準。紅隊演練能補強這項漏洞,例如發掘系統漏洞、模擬真實世界的威脅,包括對抗攻擊、資料中毒、竊取模型,以及提供可採取行動的啟示來改善並強化政策架構。這些評估也會測試現有政策的成效,揭露一些潛在的誤用情境,例如影子人工智能部署或未經授權的存取,並發掘人工智能系統的偏見或道德疑慮。透過整合策略諮詢與漏洞評估啟示,企業就能建立安全、公平、具適應力的人工智能政策,同時又能達成獨特的營運與策略需求。