IT之家 12 月 9 日消息,蘋果公司因在 2022 年取消原定的兒童性虐待材料(CSAM)檢測計劃而被起訴。一位童年時期曾遭受性虐待的 27 歲女性以化名起訴蘋果,指控其違背了保護受害者的承諾。
蘋果在 2021 年末曾宣布計劃通過設備端哈希值系統(tǒng)掃描 iCloud 中的圖片,以檢測和阻止 CSAM 傳播,并在用戶發(fā)送或接收含裸露內容的照片時發(fā)出警告。目前,裸露內容檢測功能(Communication Safety)仍然存在,但 CSAM 檢測功能因隱私專家、兒童安全組織和政府的廣泛反對被取消。
起訴者稱,她在 CSAM 檢測功能仍在時,曾接到執(zhí)法部門的通知,發(fā)現(xiàn)她遭受性虐待的圖片通過一臺在佛蒙特州查獲的 MacBook 被上傳至了 iCloud。她在訴訟中表示,蘋果停止這一功能的決定使這些材料得以廣泛傳播,蘋果因此向消費者銷售了“有缺陷的產(chǎn)品”,對像她這樣的用戶群體造成了傷害。
據(jù)該女子的一名律師稱,原告要求蘋果改變其做法,并向可能多達 2680 名其他符合條件的受害者提供賠償,此類受害者有權根據(jù)法律獲得至少每人 15 萬美元的賠償。如果全部受害者成功獲得賠償,蘋果的賠償金額可能超過 12 億美元(IT之家備注:當前約 87.28 億元人民幣)。
類似的案件已在北卡羅來納州發(fā)生。一名 9 歲的 CSAM 受害者指控蘋果,稱她通過 iCloud 鏈接收到陌生人發(fā)送的非法視頻,并被鼓勵拍攝并上傳類似內容。蘋果公司提出了一項駁回案件的動議,指出聯(lián)邦法規(guī)第 230 條保護其免于對用戶上傳到 iCloud 的材料承擔責任。但近期法院裁定,這一法律保護僅適用于積極內容審核的情形,可能削弱蘋果的抗辯理由。
針對新訴訟,蘋果發(fā)言人弗雷德?塞恩茲表示:“蘋果認為兒童性虐待材料令人發(fā)指,我們致力于在不損害用戶隱私和安全的前提下積極打擊相關犯罪?!彼岬教O果擴展了信息應用中的裸露內容檢測功能,并允許用戶舉報有害材料。然而,原告及其律師瑪格麗特?馬比認為,蘋果的措施遠遠不夠。
馬比表示,她通過執(zhí)法報告和相關文件發(fā)現(xiàn)了超過 80 起與受害者圖像及蘋果產(chǎn)品相關的案例,其中一個分享這些圖像的人是一名灣區(qū)男子,其 iCloud 賬戶中存儲了超過 2,000 張非法圖片和視頻。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。