Apple的CSAM偵測系統飽受批評

Apple日前宣布,下一次版本更新將在美國用戶的裝置中新增兒少性侵害內容(Child Sexual Abuse Material,CSAM)偵測系統。系統將偵測Apple裝置中的色情照片,並將這些照片與美國失蹤及被剝削兒童中心(National Center for Missing and Exploited Children,NCMEC)及其他兒少安全機構發布之色情影像清單比對,當發現一定數量後透過人工檢查,若判定為兒少色情照片,將鎖帳戶並通報。

Apple的計畫引發隱私權倡議人士擔憂,包括:非營利組織電子前哨基金會(Electronic Frontier Foundation,EFF)、WhatsApp 負責人 Will Cathcart、前Facebook首席安全官Alex Stamos,以及美國政府竊聽案吹哨者Edward Snowden,均對CSAM偵測系統提出質疑。

EFF批評Apple作業系統的調整本質上是在資料系統設置後門,CSAM偵測系統可能進而被政府或其他組織利用。

Will Cathcart認為CSAM偵測系統的本質是監控系統,不同國家政府可根據國內法規,利用該系統審查使用Apple裝置的公民隱私內容。Cathcart強調WhatsApp將不會跟進使用類似系統。

Alex Stamos批評Apple的根本問題在於他們並未為旗下通訊產品建構真正的信任與安全功能,如裝置內建的訊息軟體iMessage中,就缺乏針對不當內容的通報機制。

Edward Snowden則是指控Apple正在全球部署大規模監控,認為未來Apple可透過CSAM偵測任何內容。

相關連結:

Chris Duckett (2021). Apple child abuse material scanning in iOS 15 draws fire. ZD Net.

檢自:

https://www.zdnet.com/article/apple-child-abuse-material-scanning-in-ios-15-draws-fire/ (Aug. 20, 2021)

Leave a Comment

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

回到頂端