監管人工智慧程式的路線圖

全球各地的政策制定者正在討論如何治理自動化系統,特別是像ChatGPT和DALL-E這樣的生成式人工智慧(Artificial Intelligence,AI)技術被不當使用的情況。政府立法官員和監管機構關注於如何在監管AI系統時,既要確保避免最嚴重的問題發生,同時又要促進AI領域的創新。幸運的是,已經有現成的解決方案。

正如IEEE-USA的文章「應該如何監管AI?」所解釋的那樣,IEEE 1012標準為系統、軟體和硬體驗證的證明提供了一個可行的參考範例,來幫助政府和監管機構制定AI系統的規範以及其他風險管理措施。IEEE 1012標準自1988年推出以來,在對系統操作和性能要求的環境中已經有長時間的實際應用,這個標準適用於所有軟體和硬體系統,包括那些基於新興生成式AI技術的系統。IEEE 1012標準被用來驗證許多重要系統,包括醫療設備、美國國防部的武器系統,以及NASA的太空飛行器。

在人工智慧風險管理和監管的討論中,正在考慮許多方法。有些是基於特定的技術或應用領域,而有些則考慮公司或其客戶的規模。有些方法是將低風險系統與高風險系統歸為同一類別。除此之外,其餘方法可能會出現規範不適用的漏洞。因此,可以理解為什麼越來越多的政府監管人工智慧系統的提案造成混亂,AI監管提案引起混亂的原因是多方面的,包括技術的多樣性、法規的不足、風險評估的複雜性以及利害相關者的多樣性。在這樣的複雜環境中,如何制定適切、靈活且適應性強的監管框架是一個具有挑戰性的任務。

確定風險水平

       IEEE 1012標準將風險管理資源集中於具有最高風險的系統,而不考慮其他因素。它透過將風險確定為後果嚴重性及其發生可能性的函數來實現這一點,,然後將最高風險管理級別分配給最高風險的系統。IEEE 1012標準提供了一組特定的驗證再驗證(verification and validation,V&V)流程,適用於任何系統、軟體或硬體。該標準將四個可能性級別(合理、可能、偶發、罕見)和四個後果級別(災難性、關鍵、邊緣、可忽視)對應到一組四個完整性級別(參見表1)。活動的強度和深度根據系統在完整性級別範圍(從1到4)中的位置而變化。完整性級別為1的系統風險最低,潛在的不良後果較輕微。因此,在這種情況下,V&V活動可以相對簡單,不需要太多複雜的測試和審查。但這些流程可能仍為必要的,但程度不如對高風險系統的要求那麼高。完整性級別為4的系統可能會造成災難性後果,需要在系統的整個生命周期中進行大規模的風險管理。政策制定者可以採取類似的過程,將規定需求針對具有最高風險的AI應用。

最高完整性等級4出現在表格的左上角,表示高風險和高可能性,相對地,最低完整性等級1出現在右下角。IEEE 1012標準考慮了完整性等級之間的重疊,以允許根據特定應用的可接受風險進行個別詮釋,例如,偶發災難性後果的情況可能對應到完整性等級3或4。政策制定者可以自訂表格中所示矩陣的任何方面。最重要的是,他們可以更改分配給每個風險層級的必要行動。政策制定者在處理風險管理時,可以選擇採取一些特定的措施來減少風險,同時也可以考慮更廣泛的干預方式。這些干預措施可能包括:教育、資訊揭露、文件記錄、監督和處罰等。

當考慮分配到每個完整性等級的流程時,出發點是將行動分配給風險最高的完整性等級,然後根據較低等級的情況適當地降低這些行動的強度。政策制定者應詢問自己,在處理風險管理時,是否僅依賴於企業或機構自願遵守風險管理的最佳實踐,例如NIST人工智慧風險管理框架,就足夠保障風險最高的系統的安全。如果發現這樣不足以確保最高風險系統的安全,政策制定者可以明確指定這些系統需要採取的特定措施和行動級別,這些措施可以根據風險的後果和可能性來確定,以確保這些系統得到足夠的保護。重要的是,政策制定者在制定這些要求時應該謹慎,以免無意間對所有人工智慧系統都引入過多的規範,包括風險較低的內部系統。這樣可以實現一種平衡,既確保公共安全和最高風險系統的管理,又不會對全面創新產生負面影響。

IEEE 1012標準提到,有效管理風險意味著要求在系統的整個生命週期內採取行動,而不僅僅專注於已安裝系統的最終操作上。同樣的,政策制定者不必將要求放在系統的最終安裝上,他們可以要求在考慮、開發和安裝系統的整個過程中進行。IEEE 1012標準指出,為了確保結果的可靠性和完整性,有效管理風險,獨立審查至關重要。當一個系統的開發人員同時負責評估其系統的完整性和安全性時,他們可能難以客觀地全面思考可能存在的問題。此外,他們可能為確保系統獲得好的評分結果而存在利益關係,這可能會影響他們的獨立性。

IEEE 1012標準是一個經過時間考驗、廣泛接受且普遍適用的流程,用於確保正確構建出適用於預定用途的正確產品。該標準為尋求應對如何監管新的人工智慧系統的政策制定者提供了正確的引導和實用的策略。IEEE 1012可以不需任何修改就能用於軟體系統的驗證和確認,包括基於新興生成式人工智慧技術的新系統。該標準還可以作為一個架構,使政策制定者能修改後果等級、可能性等級、完整性等級和要求的細節,以更好地符合他們自己的監控目標。

本文內容純屬筆者個人意見,並不代表TWNIC立場

相關連結:Jeanna Matthews(2023). A Roadmap for Regulating AI Programs. IEEE 檢自:https://spectrum.ieee.org/regulating-ai-programs-roadmap (14. Oct, 2023)

Scroll to Top