新的全球人工智慧安全指南的 4 個要點

美國網路安全暨基礎設施安全局(Cybersecurity and Infrastructure Security Agency,CISA)英國國家網路安全中心(National Cyber Security Centre,NCSC)共同制定的AI安全準則,已獲得16個國家的認可。這份AI安全指南由Google、Amazon、OpenAI以及微軟等公司的專家合作撰寫,NCSC稱這份安全準則是第一份獲得全球一致同意的AI安全指南。

NCSC行政總裁Lindy Cameron在公開聲明中說:「我們知道AI正在以驚人的速度發展,需要國際社會採取共同行動,令跨政府和企業跟上步伐。這些準則代表著形成真正的全球共識的重要一步,共同了解AI的網路風險和緩解,以確保安全並非開發過程中的註解,而是整個過程中的核心要求。」

以下是文件發佈的4個關鍵訊息:

  1. secure-by-designsecure-by-default優先  

AI安全指南明確強調了「secure-by-design」和「secure-by-default」的原則,兩者都是積極應對攻擊,確保AI產品免受威脅的方法。該指南鼓勵AI開發者在做出重要決策時(例如選擇模型結構或訓練數據集),將安全性視為與功能和性能同等重要的考量因素。同時,建議產品在預設情況下應採用最安全的選項,並明確向用戶傳達替代配置可能帶來的風險。重要的是,不應該指望客戶負擔起安全性的責任。

  1. 複雜的供應鏈需要更嚴格的檢查

AI工具的開發者經常仰賴第三方套件,如基礎模型、訓練資料集和API,以建構他們的產品。廣泛的供應商網路擴大了潛在的攻擊面,任何一個薄弱環節都可能被攻擊,對產品安全性帶來不良影響。全球AI準則提倡開發人員在選擇是否從第三方獲取套件或自行生產時,應對這些潛在風險進行評估。當使用第三方程式時,開發人員需評估並監控供應商的安全狀況,確保供應商遵守與開發人員組織相同的安全標準。同時,依照指南的規定,需對導入的第三方程式的掃描和隔離措施。

  1. AI面臨獨特的風險

指令注入攻擊(prompt injection attacks)和資料污染(data poisoning)等針對AI的特別攻擊,需要針對性的安全考量。CISA和NCSC在其指南中特別強調在「secure-by-design」方法的框架中,一項至關重要的措施是在模型輸出周邊整合防護機制,同時需限制並規範用於檔案編輯等任務的AI套件的操作,藉此預防敏感資料的外洩。開發人員應該將這些AI特有的威脅納入測試範圍,同時在監控用戶輸入方面採取謹慎態度,以避免系統受到有心人士利用的風險。

  1. AI安全必須持續和協作

這份指南文件總結在四個生命週期階段「設計、開發、部署、操作與維護」。中的最佳實踐。特別強調在第四階段持續監控已部署的AI系統,以偵測模型行為變化和可疑用戶輸入的重要性。「secure-by-design」原則依然是軟體更新的關鍵組成部分,建議預設為自動更新。最後,CISA和NCSC建議開發人員積極利用AI社群的回饋和資訊共享,以不斷改進他們的系統。 

本文內容純屬筆者個人意見,並不代表TWNIC立場

相關連結:Laura French (2023). 4 key takeaways from new global AI security guidelines. SC Media. 檢自:https://www.scmagazine.com/news/4-key-takeaways-from-new-global-ai-security-guidelines (Nov. 27, 2023)

Scroll to Top