甚麼是人工智能公司政策?

Tball

人工智能是一項能讓電腦和機器學習、理解、建立、解決問題、預測結果及作出決策的技術。

目錄

keyboard_arrow_down

人工智能公司政策範本

人工智能公司政策範本說明

要有效教育員工最佳實務及緩解風險,公司政策需要專注於幾個重點,包括:

目的及範圍

首先要釐清設定人工智能公司政策的目的,並應清楚指明誰人需要遵循規定,包括外判人員或代理機構,與及內部員工等。

核准的應用程式

政策只應列出已獲核准的人工智能相關應用程式,並列出每個程式的正確存取程序以確保合規。不過,登入身份驗證資訊等敏感資料就不應包括在內,而應在個別員工要求存取或新員工入職時以安全方式由管理層提供。

程序及/或使用指引

總結使用人工智能的正當程序,例如在公告列表中,幫助用戶了解並遵循適當步驟。亦可利用此機會實施運作防護,與及傳遞處理許可、內部傳訊、人工智能生成內容的品質、管制和授予人工智能系統的資料與工具存取的方式。此外,亦可列出在以上程序疑似出現風險或漏洞時的處理方式。

禁止使用

此節應釐清已核准的人工智能應用程式可在何時、何地及如何使用。如果有一些獨特而合理的例外情況,亦應在上列出。像其他政策一樣,所使用的語言應該清楚、簡單及容易明白,以減低錯誤解讀或誤會的風險。

資料私隱、知識產權及使用條款與條件

本節提醒用戶檢視獲許可存取的人工智能工具的條款與條件,從而協助避免誤用及/或責任相關問題。用戶應留意保護資料私隱的重要性,並避免抄襲,尊重知識產權及其擁有人,與及不要讓有問題的工具存取機密資訊。

法規與合規

列出機構及團隊在使用人工智能時需要保持合規的監管機構及相關規例,包括已生效的政府法令及法務、保安及/或資訊科技團隊的要求。

人工智能公司政策例子

泛加拿大人工智能策略

Pan-Canadian Artificial Intelligence Strategy 分為多個策略優先項目,並統一其使命,致力「為人類及地球帶來積極的社會、經濟及環境效益」。

Microsoft 負責任人工智能實務

這是一系列研究、政策和工程文件,主要以合乎道德和負責任的方式推動人工智能發展。Microsoft 亦於 2024 年 5 月發佈全面的負責任人工智能透明度報告,涵蓋從配對、量度及管理人工智能風險以至建立安全及負責任的前沿人工智能模型等一切。

美國國家標準暨技術研究院(NIST)人工智能標準及政策

NIST 一直都與主要的私人及公共持份者和聯邦政府機關密切合作,開發新的人工智能標準。他們“積極參與美國和國際人工智能政策工作,例如美國—歐盟貿易技術委員會、經合組織、歐洲委員會、四邊安全對話”及其他倡議。NIST 亦與美國商務部的國際貿易管理局及美國國務院在這方面合作。

在 2024 年 7 月,NIST 發佈了四份刊物以「協助改善人工智能系統的安全、保安及可信性。」 包括:

人工智能規例與合規

定義人工智能道德規範

人工智能道德規範涉及管理負責任開發、部署及使用人工智能系統的原則及指引,它解決了安全、資訊保安、公平、責任歸屬、透明度、隱私、人力控管、社會責任及持續改進等問題。

人工智能法規及合規說明

前沿人工智能條例的專家建議

OpenAI 研究人員發表的報告(arXiv:2307.03718:前沿人工智能法規:管理公共安全的新興風險強調了與監管前沿人工智能模型相關的挑戰,以幫助保護用戶。它指出,「前沿人工智能模型帶來了明顯的合規挑戰:危險的功能可能出乎意料地出現;很難有效防止已部署的模型被濫用;與及很難阻止一個模型的功能被增生。」

此外,報告亦指出「最少有三個基礎構成要素」需要規管:

  1. 識別前沿人工智能開發人員是否合符需求的標準設定程序

  2. 讓監管者取得前沿人工智能開發程序視野的登記與報告要求

  3. 確保開發及部署前沿人工智能模型時符合安全標準的機制

誰可以協助我們管理人工智能公司的政策?

機構可透過兩種互補方法制定有效的人工智能政策:利用內部保安團隊或與專門的顧問公司合作,並進行紅隊評估。雖然內部團隊或顧問都專注於制定並實施基本政策,但紅隊透過發掘漏洞和潛在風險來提供關鍵啟示,確保政策的完善與完整。

顧問公司具備人工智能管治、合規與最佳實務方面的專業知識,可協助企業制定政策來解決關鍵領域,例如資料私隱、知識產權保護、風險防範,同時又能符合產業標準。紅隊演練能補強這項漏洞,例如發掘系統漏洞、模擬真實世界的威脅,包括對抗攻擊、資料中毒、竊取模型,以及提供可採取行動的啟示來改善並強化政策架構。這些評估也會測試現有政策的成效,揭露一些潛在的誤用情境,例如影子人工智能部署或未經授權的存取,並發掘人工智能系統的偏見或道德疑慮。透過整合策略諮詢與漏洞評估啟示,企業就能建立安全、公平、具適應力的人工智能政策,同時又能達成獨特的營運與策略需求。