AI能以虛擬帳戶淹沒社交媒體?

人工智慧(AI)聊天機器人ChatGPT,該機器人基於先進的語言處理技術,使用從網路上的書籍、雜誌和維基百科條目中提取的文本數據進行訓練,可以提供如同人類一般的交流體驗,同時擁有百科全書般的知識庫。用戶可以向ChatGPT提出問題,例如烹飪建議或演講幫助等。然而,ChatGPT的高度說服力輸出也可能被不良分子用在社交媒體上散播不實訊息和宣傳活動。此外,ChatGPT等高度智慧的語言處理系統也可能會造成社交媒體產生假訊息的現象,即有心人士利用這點大量增加假帳戶,進一步加劇散布假訊息的風險。

它可能會被不良行為者用來在社交媒體上製造分裂及散布訊息,2016年美國總統大選期間俄羅斯的一個社交媒體影響操作案例,警告未來的選舉可能面臨更大規模的假訊息泛濫。根據喬治城大學(Georgetown University)、史丹佛網路觀察所(Stanford Internet Observatory)和OpenAI在一月份發表的報告指出,AI系統可能會提高內容的說服力,使那些消息難以被普通網路使用者識破,並且可以將假帳號的傳播規模提高到前所未見的程度,這將使人們更難區分這些帳號是否為真正的人類。研究人員還表示,語言生成模型可以生成大量的原創內容,進一步加劇假訊息的風險。

人工智慧所帶來的潛在威脅,將會加劇現在的假帳戶、假訊息問題,未來可能面臨更多及更高品質的假訊息氾濫。現在只有少數公司和政府擁有進階的語言模型,但如果更多的組織和政府也開始進行相應投資,那麼這些模型將更容易落入心理操作者的手中。假訊息的泛濫不僅會讓公眾更難分辨真假,而且對社群媒體平台會造成更大的挑戰,因為即使平台移除了其中的大部分假帳戶及假訊息,還有與以往相比十倍以上的假訊息仍會繼續對公眾進行誤導。當今語言模型系統的快速成熟只會讓這些平台上充滿更多的假帳號。AI專家也表示,AI所創造出的文章有可能被當作垃圾郵件來傳播,造成更大的困擾。

本文內容純屬筆者個人意見,並不代表TWNIC立場

相關連結:David Silverberg(2023).Could AI swamp social media with fake accounts?.BBC.檢自:https://www.bbc.com/news/business-64464140(Feb. 27, 2023)

Scroll to Top