人工智慧治理思維演變、近期發展與課題

郭戎晉/南臺科大財經法律研究所助理教授

光與影併存的人工智慧

人工智慧就字面意義而言泛指「非人類(機器)所表現的智慧」,人工智慧最常見的迷思,便是被誤解為屬於單一技術概念,然而人工智慧並非單一技術,世界智慧財產權組織(World Intellectual Property Organization,WIPO)表明人工智慧是眾多技術的結合運用,並被廣泛使用於諸多領域。在人工智慧關聯技術及實務應用持續推陳出新下,主要國家也高度關注人工智慧發展帶來的正反效益,並積極思考人工智慧應有的治理模式與可行監管作法。

人工智慧治理思維演變

一、由「外顯」技術到「內在」技術

根據WIPO的定義,人工智慧涉及的重要技術至少包括下列六者:1、機器學習;2、邏輯程式設計:3、模糊邏輯;4、概率推理;5、本體工程;及6、功能應用關聯技術,諸如電腦視覺、自然語言處理、語音處理等。

上揭技術可概分為「外顯」與「內在」兩類概念,多數人對於人工智慧的認識,具肉眼可見的「外顯」應用扮演重要角色,包括自駕車、無人機與醫療AI器材在內,人工智慧對一般民眾來說不再只是曾經聽聞或想像中的概念,而是真實出現在你我眼前,並擔心此等應用可能對民眾帶來的危害。因此早期針對人工智慧展開的規範討論,自然而然地聚焦具可見外觀的人工智慧具體應用態樣。

二、由「管制性」行業到「不限」行業別

上述外顯應用大抵由管制性行業推動,PwC曾在2017年指出人工智慧發展潛力最為顯著的前三名業態,分別為醫療照護、交通運輸及金融服務,全數為管制型行業。管制性行業顧名思義指基於行業立法,有著經營資格的要求或限制條件,因此早期針對人工智慧展開的規範討論,大抵是直接在行業固有立法基礎上進行討論。

但當人工智慧應用逐步深入各個行業別,同時人們對於人工智慧的關注不復侷限於外顯應用,進一步探討底層技術如演算法所帶來的相關風險時,由於存在此等風險的行業領域不以管制性行業為限,在不必然存在既有立法的前提下,也促使各國開始思考有無制定規範專法的必要。

三、由全然「自律」開始加入「他律」機制

人工智慧治理早期環繞自律機制展開,2014年日本人工智慧學會設置了倫理委員會並發表「人工智慧倫理指引」,國際電機電子工程師學會(IEEE)也在2016年提出「人工智慧道德設計準則」,均強調希望透過「自律」方式,使得人工智慧的技術發展及具體應用獲得適當約束。在此一思維下,包括GAFA以及IBM、DeepMind在內的科技巨擘也紛紛提出本身的人工智慧自律規範,並嘗試發展自律監管工具。

產業引領的自律機制/軟法方案(soft law)雖有助於彌補人工智慧發展初期的監管真空(regulatory vacuum)問題,在人工智慧持續衍生過往未見的新興風險下,仍促使各國監管機關思考制定相應的法律規範。Google及其母公司Alphabet的執行長Sundar Pichai亦在2020年1月親自撰文,表示商業公司不能急於發展人工智慧技術,卻僅依賴市場力量來決定如何使用此一嶄新科技,來自公部門的監管規範仍有其必要性;Pichai認為對於人工智慧此一嶄新應用領域,政府仍有需要在充分考量成本及效益的前提下,建構全新而適當的監管法規。

人工智慧監管發展最新趨勢

一、由道德層面逐步聚焦「可解釋性AI」及「負責任AI」

2018年輪值G7集團主席的加拿大,開始倡議人工智慧全球監管合作。2019年5月加拿大提議仿「政府間氣候變化專門委員會」(IPCC)成立「人工智慧專門委員會」(IPAI),同時發布「國際人工智慧小組宣言」(Declaration of the IPAI),揭櫫參與國家所應承諾及遵循的十款共同價值。在此同時,經濟合作與發展組織(OECD)著眼人工智慧監管問題,也在2019年5月發布「人工智慧建議書」(Artificial Intelligence Recommendation),提出了五項「人工智慧基本原則」,包括:1、包容性成長、永續發展與福祉;2、以人為本的價值觀和公平;3、透明度及可解釋性;4、穩健與安全;以及5、問責機制。

隨著主要國家共通重視人工智慧帶來的挑戰,上述的人工智慧小組於2020年6月更名為「人工智慧全球夥伴聯盟」(Global Partnership on Artificial Intelligence, GPAI),並與OECD所作討論整合,正式架構於OECD之下。無論是IPAI闡述的共同價值或OECD提出基本原則,國際上針對人工智慧的治理,已由相對寬泛的道德層面,聚焦於諸如「可解釋性AI」及「負責任AI」等相對明確之議題。

二、主要國家開始思考人工智慧立法的必要

在人工智慧治理輪廓愈發明確下,各國更是積極思考以立法方式強化監理之合適性。歐盟執委會(European Commission)在2018年便已確定了歐洲人工智慧的發展願景,提出包括:1、增加針對人工智慧的公私部門投資;2、著眼社會發展預先作好準備;以及3、確保適當的道德和法律框架等三大願景。為推動及落實上述願景,歐盟執委會成立「人工智慧高級專家小組」並在2019年4月發布「可信賴人工智慧道德指引」(Ethics Guidelines for Trustworthy AI),2020年更進一步提出「人工智慧白皮書」(White Paper On Artificial Intelligence),表明歐盟將以「風險基礎管制模式」(risk-based approach)研訂人工智慧監管專法。

相對於歐盟表明制定監管立法勢在必行,美國則是以務實角度思考立法之必要。依據Stanford大學發布的AI Index 2022報告,全球主要國家通過的人工智慧立法,2016年時僅有1件,2021年全球則通過18件關聯立法;若以2016年至2021年累計通過的立法進行分析,美國更以13件立法居首。然而前揭13部立法大抵為部門立法或州法,隨著整合性聯邦立法倡議湧現,美國也持續討論如何在人工智慧發展與監管上取得衡平。

美國總統川普在2019年2月簽署行政命令啟動「美國AI倡議」(The American AI Initiative),美國AI倡議提出的六大目標中,包括應當制定必要的監管指南。白宮在2020年11月正式發布「人工智慧應用監管指南」(Guidance for Regulation of Artificial Intelligence Applications),提出美國聯邦機構在制定人工智慧應用立法時,應當納為考量的十項基本原則,包括「風險評估與管理」、「公平和非歧視」及「公開與透明」等重要要求。另一值得留意其後續發展的文件,則是白宮於2022年10月公布的「人工智慧權利法案藍圖」(Blueprint for an AI Bill of Rights),白宮提出:1、建立安全有效的系統;2、保護民眾免於演算法歧視;3、維護資料隱私;4、自動化系統運作之透明化;以及5、保障退出權利在內等五項人工智慧應用監管基本原則,後續有無可能基此進一步發展為聯邦層級的人工智慧監管專法,殊值持續關注。

三、歐盟已提出立於風險管制模式的全球首部「人工智慧監管專法」

歐盟執委會在「人工智慧白皮書」中表明將立於「風險管制」基礎,研商制定一體適用的人工智慧監管專法。經過廣泛討論與意見徵詢,歐盟執委會在2021年4月正式提出「人工智慧規則(草案)」(Artificial Intelligence Act),期藉由制定全球首部全面性監管立法,使歐洲達成其所揭示的「值得信賴的人工智慧之全球樞紐」此一重要目標。

草案將人工智慧應用系統具體區分為四個風險級別:1、無法接受的風險(Unacceptable Risk);2、高風險(High Risk);3、有限風險(Limited Risk);4、最小風險(Minimal Risk),並根據風險級別的高低設定其受到的規範程度。若人工智慧技術與應用系統將導致「無法接受的風險」,依草案設計將完全禁止此等應用;被認定為「高風險」時,則應遵守草案所訂下之嚴格規範。

四、美國另以務實觀點推動「人工風險管理架構與管理標準」

美國向以務實立場思考人工智慧的發展與監管,美國國家標準暨技術研究院(NIST)為助益公、私部門有效管理人工智慧帶來的相關風險,於2021年7月宣示將研擬「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF),2021年至2022年NIST陸續發布AI RMF草案與其修正版本。

AI RMF表明如何識別、減輕及最小化涉及人工智慧技術的風險與潛在危害,將是各界開發可信賴人工智慧系統及其負責任使用上的重要步驟。在風險識別的基礎上,AI RMF進一步建構人工智慧風險治理架構與管理標準.並提出以治理(Govern)、路徑(Map)、量測(Measure)及管理(Manage)為核心的風險管理架構設計。依據NIST公布資訊,NIST預計在2023年上半度正式發布AI RMF 1.0版本,從產業發展角度而言,AI RMF更富實務操作可行性,其所生影響或將較監管立法更為深遠。

結語:人工智慧監管推動仍面臨嚴峻課題

當前主要國家咸認同人工智慧確有必要進行適當監管,然而人工智慧監管工作的推動卻也面臨數道難題,包括難以直接援引既有的監管經驗、監管創新動能落後於人工智慧技術創新,以及最為關鍵的「無法有效衡量人工智慧衍生風險」。而包括人工智慧在內,歷來著眼技術發展提出的監管立法,也往往面臨著:1、如何跟上技術進步;2、如何在促進技創新與保護基本權利和價值之間取得平衡;3、監管方向係應順從社會多數共識抑或應反其道而行;以及4、如何平衡手段的有效性與合法性等爭議。

David Collingridge在1980年提出「科林格里奇困境(Collingridge Dilemma)理論」,其是指前瞻技術可能出現的負面影響,在技術發展前期往往難以預測,在無法獲得所生影響的必要資訊下,我們可以控制卻不知該控制什麼;當創新技術已在市場上佔有穩固地位,即使其所生影響隨著技術的發展而逐漸明朗,我們知道該控制什麼卻已陷入難以控制之因境。

就現況而言,各國已跨越早期以道德倫理層面為主的治理討論,逐步聚焦人工智慧的可解釋性與問責課題,近期更進而確定人工智慧監管的主要目的在於有效解決人工智慧系統衍生之相關風險。惟無論採取何種監管手法與所設定的監管強度為何,如何避免人工智慧監管推動落入「科林格里奇困境」,著實重要並值得國內各界深思。

本文內容純屬筆者個人意見,並不代表TWNIC立場
Scroll to Top