台灣網路講堂:監管AI,全球共識有可能嗎?會後報導

台灣網路講堂於11月8日舉辦「監管AI,全球共識有可能嗎?」專題講座,邀請人工智慧法律國際研究基金會兼任研究員謝國廉教授、南臺科技大學財經法律研究所郭戎晉助理教授以及國防安全研究所網路安全與決策推演研究所曾怡碩博士,分別介紹全球三大經濟體––歐洲、美國與中國的AI監管模式與其脈絡,以及這些不同監管模式對台灣的產業與社會發展的意涵,使國內社群理解全球重大AI治理模式的樣貌,並留給社群思考這些不同治理模式的歧異與共同處,以及適合台灣產業發展及社會文化的最佳監管模式。
謝國廉教授主要討論歐盟AI監管法規發展背後的理念,以及如何「以人為本」的形塑過程。歐盟執委會於2018年中成立了包含法律、哲學、技術等不同領域的「AI高階專家群組」,試圖凝聚有關「值得信賴AI」的法律與倫理共識;這些專家也是2019年4月正式公佈「值得信賴的人工智慧的倫理方針」(簡稱AI方針)的主要貢獻者,該方針闡述了歐盟AI法治的基本理念,並提出「值得信賴的人工智慧」應包含合法、合於倫理,以及有助於健康蓬勃發展等要件。而所謂的「以人為本的AI」就是AI必須用來服務人類、實現人類共同利益、增進人類福祉,並增進對於自由權的保障。謝教授也說明「以人為本」的理念其實和歐盟基本憲章一致,而AI方針採具有強烈宣示性的文字,例如強調人性尊嚴的重要性;平等、禁止歧視與團結等,看似曲高和寡,實則可操作性高。

郭戎晉教授則認為,AI不一定要被監管,但是AI的風險必須要加以處理。他提醒AI並非單一技術概念,是眾多技術的結合運用,也建議可引用WIPO提出的AI細部技術定義。而當討論AI時,也應考量AI與其他技術結合後的風險議題。他進一步點出AI監管面臨難題,包括無法有效衡量風險、難以直接援引既有監管經驗、監管速度落後技術創新等,也因此AI監管容易落入到所謂「柯林格里奇困境」。美國的AI規範發展則一直擺盪於自律與他律間求取平衡的過程。早期由科技大廠自行提出AI自律規範,在發現效果不足後,美國白宮也在2020年提出AI應用監管指南,內含10項基本原則。NIST也開始草擬「人工智慧風險管理框架」,預計明年初正式發佈,試著從技術的角度來管制AI,郭教授認為這是相對務實的做法。另外一個是剛在今年10月發布的AI權利法案藍圖,拋出了五大權利保護原則,為來可能會延伸變成聯邦層級的基本法。郭教授結論,AI自律有其必要性,因他律有一定的局限性;歐盟立法一直以來都有所謂的布魯塞爾效應,其推出的基本法未來也可能也會影響美國甚至是台灣的立法方向。

曾怡碩所長的演講主題為中國的AI監管法規,他首先結論:若單從法規來看,中國的AI監管法規與歐美(特別是歐洲)雖然用字遣詞類同,例如都強調了倫理的重要性,但背後的意圖與可能產生的後果卻大相徑庭。而中國的法律文字也不代表中國的思維模式。曾所長提到中國的監管是由上而下發展,他介紹了若干中國數位監管法律,如網路安全法、數據安全法、個人信息保護法等,再延伸出中共將人工智慧發展最重要的資料、算法及算力都視為國家主權的概念,造就出中國在AI監管方面與其他國家最不同之處:控制。例如,例如法規要求企業應當注意人民個資及隱私保護,卻也同時要求企業將用戶資料交給國家管理。他也認為,因為政府掌握的數據夠多,中國會是唯一最有可能發展出最多樣不同AI應用與監管模型,以及實現AI霸權的國家。

本場次全程直播,歡迎至影音專區回看。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

回到頂端