史丹佛大學的一項研究表明,人工智慧模型不符合歐盟的人工智慧法案

一項由史丹佛大學進行的研究發現,許多人工智慧模型在歐盟的人工智慧法案中存在不符合標準的狀況。研究揭示人工智慧技術在法規標準方面的問題,進而提出修訂和完善人工智慧法案相關建議。

歐盟於近期通過了一項針對人工智慧技術的法規,以確保人工智慧在個人隱私、倫理和安全等方面的合理性,然而史丹佛大學的研究團隊發現,許多現有的人工智慧模型並不符合這些法案的要求。

研究人員對多個領域的人工智慧模型進行評估,包括臉部辨識、自然語言處理和自動駕駛等,但結果卻顯示這些模型在資料保護、透明度和算法偏見等方面存在著明顯的缺陷。

研究指出人工智慧模型中的資料保護不足可能導致個人隱私的侵犯,同時缺乏透明度和可解釋性,使得這些模型的決策過程將變得難以理解和追蹤,導致使用者難以對其決策負起完全的責任。

此外研究人員還注意到人工智慧模型中的算法存在偏見問題,由於這些模型的訓練資料可能擁有偏見或不公平,因此它們做出決策時可能帶有種族、性別或其他偏見。

為了解決這些問題,研究人員建議加強對人工智慧模型的監管和審查機制。他們主張加強資料保護措施,確保個人隱私得到適當的保護。同時透明度和可解釋性應該成為人工智慧模型設計和實施的基本原則,以便監督機構和使用者能夠理解和解釋模型的決策過程。

因此研究人員呼籲人工智慧開發者應該更加關注算法偏見的問題,並採取適當的措施來減輕其影響,並強調開發者應該使用多樣化和平衡的資料集來訓練模型,並定期進行偏見檢查和修正。

雖說人工智慧模型在符合法規標準方面上仍存在些許困難,但研究的結果證明了人工智慧技術的監管和透明度的重要性,同時也為進一步改進和完善人工智慧法規提供了有價值的建議。

本文內容純屬筆者個人意見,並不代表TWNIC立場

相關連結:Imane El Atillah(2023). AI models don’t comply with the EU’s AI Act, according to a Stanford study. euronews.

檢自:AI models don’t comply with the EU’s AI Act, according to a Stanford study | Euronews (July. 10, 2023)

Scroll to Top