北京時(shí)間 9 月 3 日晚間消息,據(jù)報(bào)道,蘋果公司上個(gè)月宣布了幾項(xiàng)新的兒童安全功能,但其中一些存在爭議,包括在 iCloud Photos 中掃描 CSAM(兒童性虐待照片)內(nèi)容。蘋果今日表示,在面向公眾推遲之前,將投入更多時(shí)間來完善這些功能。
蘋果在一份聲明中稱:“上個(gè)月,我們宣布了一些功能的計(jì)劃,旨在幫助保護(hù)兒童免受‘利用通訊工具招募和剝削他們的掠奪者’的傷害,并限制兒童性虐待材料的傳播。根據(jù)客戶、倡導(dǎo)團(tuán)體、研究人員和其他方面的反饋,我們決定在未來幾個(gè)月花更多時(shí)間收集意見并進(jìn)行改進(jìn),然后再發(fā)布這些至關(guān)重要的兒童安全功能。”
按照原計(jì)劃,蘋果這些新的兒童安全功能將于今年晚些時(shí)候發(fā)布,作為 iOS 15、iPadOS 15 和 macOS Monterey 更新的一部分。如今,這些功能何時(shí)推出還是個(gè)未知數(shù)。至于如何進(jìn)一步完善這些功能,蘋果在今天的聲明中也沒有提供任何細(xì)節(jié)。
上個(gè)月,在宣布新的 CSAM 檢測技術(shù)后,蘋果受到了隱私倡導(dǎo)者的強(qiáng)烈抵制和批評。即使蘋果的內(nèi)部員工也擔(dān)心,政府可能會(huì)通過尋找 CSAM 以外的內(nèi)容,迫使蘋果使用這項(xiàng)技術(shù)進(jìn)行審查。還有一些員工擔(dān)心,蘋果正在損害其業(yè)界領(lǐng)先的隱私聲譽(yù)。
但蘋果卻十分看好這一功能的前景,并表示,如果真正實(shí)施起來,要比谷歌和 Facebook 等其他公司使用的技術(shù)更能保護(hù)隱私。此外,蘋果還證實(shí),事實(shí)上自 2019 年以來,蘋果已經(jīng)在掃描 iCloud 郵件中的兒童性虐待材料(CSAM),只不過尚未掃描 iCloud 照片或 iCloud 備份。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。