為人工智慧圖片加上浮水印來對抗錯誤訊息和深度偽造可能毫無意義

白宮宣布七家大型科技公司已確定將實施人工智慧安全措施,其中包括浮水印技術,以確保由演算法生成的內容可以被區分出來,以免被誤認為是實際人類的工作成果。

在這些巨頭中,Amazon、Google和OpenAI都有明確的提到浮水印技術,這是一種將來源資訊添加到文字和圖像中,以證明內容來源的技術。他們打算利用這種方式來防範藉由生成式人工智慧模型製作的虛假訊息、詐騙以及深度偽造。其目標是,人工智慧生成的資料將被標記,以便有人試圖偽造內容為人工創作時,可以檢測並識別其是否為AI生成。

然而,學界警告指出,雖然在圖像上使用數位浮水印技術,在內容創建時添加一些雜訊,然後檢測圖像是否有這些雜訊,可以用來保護內容的真實性,但有些人可能會找到方法規避這種保護措施,使其無法百分之百地防止內容被篡改或生成欺騙詐的資訊。因此,儘管這是一種保護方法,卻不能給予絕對的安全保障。

美國Maryland大學的團隊研究了數位圖像浮水印技術的可靠性,他們發現這些技術相對容易被攻擊或破解。他們在一份即將在ArXiv上發布的學術論文中描述了他們的研究結果,該論文名為《Robustness of AI-Image Detectors: Fundamental Limits and Practical Attacks》。Maryland大學電腦科學副教授Soheil Feizi在一封寄給The Register的電子郵件中表示:「在這項研究中,我們揭開了圖像浮水印作為防禦深度偽造的原理和實際漏洞。這顯示出Google和其他科技巨頭目前採取在其生成圖像添加浮水印作為防禦的方法可能不會奏效。」

研究結果表明,在偽陰性比率(即檢測到的有浮水印圖像被誤認為無浮水印的百分比 )和偽陽性比率(即檢測到的無浮水印圖像被誤認為有浮水印的百分比 )之間存在一種平衡關係。這平衡導致浮水印檢測方案可以達到高性能(檢測結果含有偽陰性)或高穩健性(檢測結果含有少數偽陽性)的效果,但不能同時兼具兩者。

當被問到CAPTCHA解讀拼圖驗證方面,人類和機器之間的差距是否在縮小,以及Maryland大學團隊的研究與「檢測人類和機器生成內容之間的差異困難性」是否有相似之處時,Maryland大學的研究人員Mehrdad Saberi和該研究論文的首席作者Soheil Feizi表示,機器學習的能力正在不斷增強。換句話說,他們認為機器學習越來越強大,這不僅體現在解決CAPTCHA驗證碼拼圖方面,也反映在他們的研究結果中,即機器和人類生成的內容之間的區別越來越難以檢測。

Feizi和Saberi寄給The Register的一封電子郵件中表示:「機器學習無疑正在日益進步,展示出能夠媲美甚至超越人類表現的潛力。」Maryland大學的團隊指出:這表示解讀CAPTCHA驗證碼拼圖或生成文本等任務,在人工智慧的能力範圍內,已經可以與人類的熟練程度相媲美。至於生成圖片和影片,人工智慧生成的內容越來越接近真實內容,在不久的將來,可能無論使用什麼技術,都無法區分人工智慧與人類生成的內容。認為浮水印技術將來會是防禦和攻擊之間的競賽。因此,儘管未來可能會提出新的更強大的浮水印方法,但也代表會出現新的攻擊方法來破解。

本文內容純屬筆者個人意見,並不代表TWNIC立場

相關連結:Thomas Claburn(2023).Watermarking AI images to fight misinfo and deepfakes may be pretty pointless.The Register

檢自:https://www.theregister.com/2023/10/02/watermarking_security_checks/?td=rt-3a  (Oct.2, 2023)

 

Scroll to Top