設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

蘋果因 2022 年取消 CSAM 檢測功能被起訴,原告稱其違背了保護受害者的承諾

2024/12/9 6:54:11 來源:IT之家 作者:遠洋 責編:遠洋
感謝IT之家網(wǎng)友 華南吳彥祖 的線索投遞!

IT之家 12 月 9 日消息,蘋果公司因在 2022 年取消原定的兒童性虐待材料(CSAM)檢測計劃而被起訴。一位童年時期曾遭受性虐待的 27 歲女性以化名起訴蘋果,指控其違背了保護受害者的承諾。

蘋果在 2021 年末曾宣布計劃通過設備端哈希值系統(tǒng)掃描 iCloud 中的圖片,以檢測和阻止 CSAM 傳播,并在用戶發(fā)送或接收含裸露內容的照片時發(fā)出警告。目前,裸露內容檢測功能(Communication Safety)仍然存在,但 CSAM 檢測功能因隱私專家、兒童安全組織和政府的廣泛反對被取消。

起訴者稱,她在 CSAM 檢測功能仍在時,曾接到執(zhí)法部門的通知,發(fā)現(xiàn)她遭受性虐待的圖片通過一臺在佛蒙特州查獲的 MacBook 被上傳至了 iCloud。她在訴訟中表示,蘋果停止這一功能的決定使這些材料得以廣泛傳播,蘋果因此向消費者銷售了“有缺陷的產(chǎn)品”,對像她這樣的用戶群體造成了傷害。

據(jù)該女子的一名律師稱,原告要求蘋果改變其做法,并向可能多達 2680 名其他符合條件的受害者提供賠償,此類受害者有權根據(jù)法律獲得至少每人 15 萬美元的賠償。如果全部受害者成功獲得賠償,蘋果的賠償金額可能超過 12 億美元(IT之家備注:當前約 87.28 億元人民幣)。

類似的案件已在北卡羅來納州發(fā)生。一名 9 歲的 CSAM 受害者指控蘋果,稱她通過 iCloud 鏈接收到陌生人發(fā)送的非法視頻,并被鼓勵拍攝并上傳類似內容。蘋果公司提出了一項駁回案件的動議,指出聯(lián)邦法規(guī)第 230 條保護其免于對用戶上傳到 iCloud 的材料承擔責任。但近期法院裁定,這一法律保護僅適用于積極內容審核的情形,可能削弱蘋果的抗辯理由。

針對新訴訟,蘋果發(fā)言人弗雷德?塞恩茲表示:“蘋果認為兒童性虐待材料令人發(fā)指,我們致力于在不損害用戶隱私和安全的前提下積極打擊相關犯罪?!彼岬教O果擴展了信息應用中的裸露內容檢測功能,并允許用戶舉報有害材料。然而,原告及其律師瑪格麗特?馬比認為,蘋果的措施遠遠不夠。

馬比表示,她通過執(zhí)法報告和相關文件發(fā)現(xiàn)了超過 80 起與受害者圖像及蘋果產(chǎn)品相關的案例,其中一個分享這些圖像的人是一名灣區(qū)男子,其 iCloud 賬戶中存儲了超過 2,000 張非法圖片和視頻。

廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。

相關文章

關鍵詞:蘋果CSAM
  • 日榜
  • 周榜
  • 月榜

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知