該如何應對演算法偏見?

羅心妤/東海大學資訊管理學系

為何會出現演算法偏見?

如今,人工智慧被嵌入在一個又一個的系統中,而人工智慧的偏見主要由以下兩個原因形成:

  1. 認知偏差:源自於大腦試圖簡化處理有關人類的資訊而形成的無意識偏差,影響認知偏差的原因可能為:
    • 訓練的資料集中含有人類世界已存在的偏差
    • 設計者在不知不覺中將偏差類別引入算法模型
  2. 數據的完整性不足:數據不完整可能不具有代表性,因此可能存在偏差。

演算法偏見的解決方法

自動決策並不是中立的決策,只要人類有偏見,演算法也會有偏見。消除偏見沒有快速的解決方案,但麥肯錫等顧問提出可參考的了「從業人員、商業人士和政策領導者需要考慮的六項人工智慧潛在解決方法[1]」(Six potential ways forward for AI practitioners and business and policy leaders to consider):

  1. 了解人工智慧可以幫助糾正偏見以及可能加劇偏見的領域:組織將需要了解最新情況(例如:那些曾經有偏見的例子)以了解 AI 如何以及在何處可以提高公平性,以及 AI 系統在哪些方面遇到了困難。
  2. 「建立流程」來測試和減輕系統中的偏見:技術工具可以突顯潛在的偏見來源,並揭示數據中影響最大的特徵;運營策略可以更有意識的抽樣來審計數據和模型以改進數據蒐集方式;流程和指標的透明度可以幫助觀察者了解相關權衡的步驟。
  3. 對於人類決策中的潛在偏見進行事實分析:隨著人工智慧揭開更多關於人類決策的資訊,領導者可以考慮如何透過人工智慧找出長期被忽視的偏見來提供幫助。
  4. 充分探討人類和機器如何最好地協同工作:考慮在什麼情況下,自動決策是可以接受的,以及什麼情況下人類應該持續參與。
  5. 對「偏見研究」進行更多投資,為研究提供更多數據,並採用跨域方法:更多的進展將需要跨域的參與,包括倫理學家、社會科學家和最了解過程中每個應用領域的專家。
  6. 加大人工智慧領域的多元化:一個多樣化的人工智慧社群將更有能力預測、發現和審查不公平的偏見,並能夠更好地與可能受偏見影響的社群接觸。

美國與歐盟政府的應對策略

歐盟

  2019年歐盟議會發布《可信賴人工智慧倫理準則[2]》(Ethics Guidelines for Trustworthy AI)。共計七面向包括:應由人類監督AI、兼顧穩健與安全、重視隱私和資料治理、具有透明度及可追溯機制、確保多元和公平、尊重社會和環境福祉、建立完善的問責制度。

2021年4月歐盟委員會發布了長達108頁 的《關於制定人工智慧統一規則》(簡稱,《人工智慧法案[3]》)的提案,該法案以「安全」和「非歧視」為原則,根據AI可能對人的基本權利產生威脅劃分成三個等級:不可接受的風險、高風險、低風險。正如《通用數據保護條例》(GDPR)將個人數據按照敏感程度施以不同程度的保護義務並進行不同強度的監管。《人工智慧法案》的關注重點與GDPR高度相似,例如:年齡、種族、政治取向等可能成為社會中遭受歧視的因素,都被視為劃分風險的依據。

美國

    2022年《演算法問責法案》[4]於2022年2月3日在美國眾議院提出,目標是提高自動化決策的透明度和公平性,並對要求相關公司要對偏見、有效性和其他因素進行影響評估。此法案為2019年《演算法問責法案》的更新版本,在專業性與細節有許多改進之處,包括:釐清涵蓋哪些類型的演算法及公司、確保將消費者影響放在評估首位,並提供如何建構報告的更多細節。該法案將授權聯邦貿易委員會(FTC,Federal Trade Commission)制定法規,要求其管轄範圍內的公司對高度敏感的自動決策系統進行影響評估。其內容包括:

  • 要求公司評估自動化關鍵決策的影響,包括已經自動化的決策流程
  • 要求聯邦貿易委員會制定法規,為評估和報告提供結構化指南
  • 要求公司向聯邦貿易委員會報告選定的評估資料
  • 要求聯邦貿易委員會發佈一份年度趨勢匿名匯總報告,並建立一個資料庫,消費者和宣導者可以在其中審查哪些關鍵決策已被公司利用人工智慧自動化。

結語

隨著人工智慧的應用變得無處不在,因演算法而形成偏見的可能性也隨之增加。此時,國際上重要的指引原則,體現民意對AI治理的期待。

人類正在創造有偏見的數據,而同時也在創造識別偏見的演算法來消除偏見。從上述資料中,可以歸納出解決演算法偏見的兩大主軸:如何積極地發現偏見、如何有效率地監督演算過程。因此,理解基礎數據中固有的偏見,並開發可解釋結果的決策系統,將是解決既有演算法偏見的潛力的關鍵。此外,政府應該立法明定如何處理文件評估、披露和糾正措施,並授權合格人員調查和糾正人工智慧系統中的偏見和安全漏洞。

[1]Tackling bias in artificial intelligence (and in humans) (2019). Jake Silberg and James Manyika 檢自:https://www.mckinsey.com/featured-insights/artificial-intelligence/tackling-bias-in-artificial-intelligence-and-in-humans  (Mar.26 , 2022)

[2] ETHICS GUIDELINES FOR TRUSTWORTHY AI (2019) 檢自:https://www.aepd.es/sites/default/files/2019-12/ai-ethics-guidelines.pdf (Mar.26 , 2022)

[3] Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS (2021) 檢自:https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206 (Mar.26 , 2022)

[4]H.R. 6580: Algorithmic Accountability Act of 2022 (2022) Govtrack 檢自:https://www.govtrack.us/congress/bills/117/hr6580/text (Mar.26 , 2022)

Scroll to Top