由下而上的人工智慧

梁理旋/NII產業發展協進會副執行長

國際間逐漸重視AI帶來的問題

以ChatGPT為焦點的人工智慧,成為近期全球政府、企業、公民社會團體與媒體的討論重心,大家關切的不只是科技帶來的創新與商業機會,還有更多的警告與提醒,連推出ChatGPT的OpenAI執行長Sam Altman也主張,政府是監管AI的關鍵角色,並認為應該要建立一個政府或全球的AI機構來監督該技術的發展。微軟在其發布的AI治理藍圖中也提到類似的監管機關論述

於此同時,越來越多國家政府注意到生成式AI工具產生的爭議與問題,紛紛展開調查或甚至對ChatGPT發出服務禁令。觀察歐洲、美國或中國等不同政治體系的政府對於AI的規管方向,不難發現,其管理模式從過去一兩年模糊的、高層次的道德準則,逐漸轉變為更具體的監管措施。

Kurbalija博士提出「由下而上的人工智慧」倡議

外交基金會(DiploFoundation)創辦人Jovan Kurbalija博士在今年6月提出「由下而上的人工智慧」(bottom-up AI)倡議,期望在政府、企業熱議未來AI應當如何被發展與監管之際,每個人也都應該成為AI未來的決定者之一。而到底Kurbalija口中的bottom-up AI要如何達到此目的?又可以解決哪些問題?

當我們與ChatGPT等類似工具互動時,這些AI工具會蒐集、編碼並貨幣化從我們的思想中擷取出的模式(Pattern)資料,並再轉化形成新的AI經濟;而此運作讓AI左右了人們知識的取得,擁有該AI技術的特定企業或政府,也將壟斷人們的知識取得方式,人類將面臨成為知識奴隸(knowledge slavery)的風險。Kurbalija認為bottom-up AI模型可以確保人類保持控制權,而開源AI (Open Source AI)是bottom-up AI的可行方案。

從技術面來看,bottom-up AI是透過Open Source所建構的AI系統。Kurbalija引用Google一份標題為「我們沒有護城河,OpenAI也沒有」(We Have No Moat, And Neither Does OpenAI)的外洩文件內容提到,包括Vicuna、Alpaca和LLaMA等利用開源所建構之語言模型,與目前科技巨頭所開發的 ChatGPT、Bard等平臺間的品質差距越來越小;不僅如此,這些開源AI模型的開發只需要數百美金和13B(130億)個參數,就達到Google花了1千萬美金和540B(5400億)個參數所達到的目標,且開發時間只要幾週。整體來說,開源方案更快速、更模組化,進行資料處理時也耗費更少的能源。在Google的文件中還提到,許多開源AI計畫是利用小型、高度策劃過的資料集來節省訓練時間,而這樣的訓練方式也已經成為標準做法,且這些高品質的資料集也是開源的,可自由使用。

簡言之,新的開源大型語言模型成為ChatGPT、Bard等平臺的替代品,性能相當但成本更低。大量免費和開放的大型語言模型將AI推向了世界各地數百萬人的手中,也激勵了更多的創新。不過,MIT技術評論的一篇報導也提醒,這樣的開源繁榮景象並不穩定,因為大多數開源AI模型仍站在擁有雄厚財力的科技公司所推出巨型模型的肩膀上。如果OpenAI和Meta決定收手,未來發展榮景恐將不再;例如前段提到的LLaMA,便是Facebook母公司Meta的大型語言模型。

藉由「由下而上的人工智慧」建立具倫理與包容特性的AI系統

曾受邀到聯合國AI for Good全球高峰會演講的AI 研究員及創業家 Rudradeb Mitra也倡議bottom-up AI概念,但不同於Kurbalija的倡議目的是欲打破人類知識取得遭到壟斷,Mitra更強調的是要藉此建立具倫理與包容特性的AI系統。透過聚集AI設計者、執行者(例如:終端使用者、政府、草根組織、國際組織等)、投資者、法律專業人士等多方群體及跨學門人才,以相同目標透過協作流程來實現由下而上。透過協作,可反映出不同面向的想法,也才有機會在發展AI時,使不同角色的參與者可理解彼此想法的相異處,並試著凝聚共同的價值觀。如此一來,像是系統設計者在程式編碼階段的個人價值觀或偏見,設計者可能對公共政策、人權、倫理等相關領域專業知識的缺乏,以及對弱勢群體無意識的排除之缺失,都有機會透過bottom-up AI的實踐予以改善。上述似乎理想化的概念,在實際操作上也已經有像是Omdena協同平臺作為開發AI產品之方案可供選擇。

結語

無論是Kurbalija或Mitra所倡議的bottom-up AI,即使循不同渠道實踐,兩者都試著要移除由上而下(top-down)模式中決策者的權力,免除該模式下可能產生對知識壟斷、發展出隱含偏見價值觀產品的結果;而bottom-up AI因為源於人們的需求,可以減緩權力過度集中的風險,且在當前法律、政策或市場機制都尚未成熟的情況下,bottom-up AI還可平衡大型科技公司與社群之間的權力,對於發展更包容、創新與可實現民主社會價值的人工智慧產品或服務,是更好的機制與方案。

未來的AI,可能是混合著top-down及bottom-up兩種模式的世界,在持續進展的過程中,最後也引用Kurbalija博士的提醒,只要質疑現有科技可能產生負面影響,我們就不應該停止探索並鼓勵更多的替代方案。

參考資料

Scroll to Top