IT之家 8 月 13 日消息 蘋果軟件工程高級副總裁 Craig Federighi(克雷格?費德里吉)今天接受了《華爾街日報》的采訪,為該公司有爭議的兒童安全計劃進行了解釋。
Federighi 承認(rèn),蘋果在上周宣布的兩項新功能處理不當(dāng),“通訊安全”功能和“掃描存儲在 iCloud 照片庫中的 CSAM(兒童性虐待照片)內(nèi)容” 不能混為一談。
很明顯,很多信息在如何理解方面非常混亂,我們希望每個人都能更清楚地了解這一點。
事后看來,同時宣布這兩項功能是造成這種混亂的一個原因。同時宣布這兩項功能,人們會將它們聯(lián)系起來,并感到非常害怕:我的隱私發(fā)生了什么?
答案是,您的隱私?jīng)]有發(fā)生任何變化。
他解釋稱,“通訊安全”功能指,如果孩子們通過 iMessage 發(fā)送或接收露骨的照片,他們會在查看照片前收到警告,照片會變得模糊,并且會有一個選項讓他們的父母收到提醒。
而 CSAM(兒童性虐待照片)掃描會嘗試將用戶的照片與已知 CSAM 的散列圖像匹配,然后再將它們上傳到 iCloud。檢測到 CSAM 的帳戶將接受蘋果的人工審查,并可能會報告給國家失蹤和受虐兒童中心 (NCMEC)。
IT之家了解到,該功能受到了用戶、安全研究人員、電子前沿基金會 (EFF) 和 Facebook 前安全主管愛德華?斯諾登,甚至蘋果員工的大量批評。
面對這些批評,F(xiàn)ederighi 解答了大家主要關(guān)心的問題,強調(diào)蘋果的系統(tǒng)將受到保護,不會被政府或其他具有“多層次可審計性”的第三方利用。
Federighi 還透露了一些關(guān)于系統(tǒng)保護措施的新細(xì)節(jié),例如在蘋果收到警報之前,手機會在照片庫中匹配大約 30 個 CSAM 內(nèi)容,然后它會確認(rèn)這些圖像是否是真實的 CSAM 照片。
只有當(dāng)該照片與 30 個已知的 CSAM 照片匹配的閾值時,蘋果才會知道用戶的帳戶和這些照片的信息,而不涉及用戶的任何其他照片。此外,F(xiàn)ederighi 表示檢測過程是全程在手機本地的。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。