IT之家 8 月 9 日消息 蘋果公司發(fā)布了題為 “擴大對兒童的保護(hù)”的常見問題(FAQ),旨在消除用戶對該公司上周宣布的 iCloud 照片中的 CSAM(兒童受虐材料)檢測和信息通信安全功能的隱私擔(dān)憂。
“自從我們宣布這些功能以來,包括隱私組織和兒童安全組織在內(nèi)的許多利益相關(guān)者都表示支持這個新的解決方案,有些人還提出了一些問題,”FAQ 中寫道,“這份文件的作用是解決這些問題,并在這個過程中提供更多的清晰度和透明度。”
蘋果在文件中稱,信息中的通信安全“只對家庭共享中設(shè)置的兒童賬戶在信息應(yīng)用中發(fā)送或接收的圖像有效”,而 iCloud 照片中的 CSAM 檢測“只影響選擇使用 iCloud 照片存儲其照片的用戶...... 對任何其他設(shè)備上的數(shù)據(jù)沒有影響?!?/p>
FAQ 中寫到:
這兩個功能是不一樣的,也沒有使用相同的技術(shù)。
信息中的通信安全旨在為家長和兒童提供額外的工具,以幫助保護(hù)他們的孩子避免在信息應(yīng)用中發(fā)送和接收色情圖片。它只對在家庭共享中設(shè)置的兒童賬戶在信息應(yīng)用中發(fā)送或接收的圖像起作用。它在設(shè)備上分析圖像,因此不改變信息的隱私保證。當(dāng)兒童賬戶發(fā)送或接收色情圖片時,照片將被模糊化,兒童將被警告,并提供有用的資源,并保證如果他們不想查看或發(fā)送照片也沒關(guān)系。作為額外的預(yù)防措施,還可以告訴年幼的孩子,為了確保他們的安全,如果他們真的查看了照片,他們的父母會收到一條信息。
第二項功能,即 iCloud 照片中的 CSAM 檢測,旨在將 CSAM 擋在 iCloud 照片之外,而不向蘋果提供任何與已知 CSAM 圖像相匹配的照片的信息。在大多數(shù)國家,包括美國,擁有 CSAM 圖像是非法的。這項功能只影響選擇使用 iCloud 照片來存儲照片的用戶。它不影響沒有選擇使用 iCloud 照片的用戶。對任何其他設(shè)備上的數(shù)據(jù)都沒有影響。該功能不適用于信息。
該文件的其余部分分為三個部分(以下為黑體字),并對以下常見問題進(jìn)行了解答:
信息中的通信安全
誰可以在信息中使用通信安全?
這是否意味著信息將與蘋果或執(zhí)法部門共享信息?
這是否會破壞信息中的端到端加密?
這項功能是否會阻止受虐待家庭的兒童尋求幫助?
在兒童沒有得到警告和選擇的情況下,父母是否會得到通知?
CSAM 檢測
這是否意味著蘋果要掃描我的 iPhone 上存儲的所有照片?
這是否會將 CSAM 圖像下載到我的 iPhone 上,與我的照片進(jìn)行對比?
為什么蘋果現(xiàn)在要這樣做?
iCloud 照片的 CSAM 檢測的安全性
iCloud 照片中的 CSAM 檢測系統(tǒng)能否被用來檢測 CSAM 以外的東西?
政府能否迫使蘋果公司將非 CSAM 圖像添加到哈希列表中?
能否將非 CSAM 圖像“注入”系統(tǒng),以標(biāo)記 CSAM 以外的賬戶?
iCloud 照片中的 CSAM 檢測是否會向執(zhí)法部門錯誤地標(biāo)記無辜者?
有興趣的讀者應(yīng)該查閱該文件,了解蘋果對這些問題的完整回應(yīng)。然而,值得注意的是,對于那些可以用“是/否”回答的問題,蘋果都以“否”開頭,但“iCloud 照片的 CSAM 檢測安全”部分的以下三個問題除外:
iCloud 照片中的 CSAM 檢測系統(tǒng)能否被用來檢測 CSAM 以外的東西?
我們的程序是為了防止這種情況發(fā)生。iCloud 照片的 CSAM 檢測是這樣建立的:該系統(tǒng)只對 NCMEC 和其他兒童安全組織提供的 CSAM 圖像散列進(jìn)行檢測。這套圖像散列值是基于兒童安全組織獲得并驗證為 CSAM 的圖像。沒有自動向執(zhí)法部門報告,蘋果公司在向 NCMEC 報告之前進(jìn)行人工審查。因此,該系統(tǒng)的設(shè)計僅用于報告 iCloud 照片中已知的 CSAM 照片。在大多數(shù)國家,包括美國,只要擁有這些圖片就是犯罪,蘋果有義務(wù)向有關(guān)當(dāng)局報告我們了解到的任何情況。
政府能否迫使蘋果將非 CSAM 圖像添加到哈希列表中?
蘋果將拒絕任何此類要求。蘋果公司的 CSAM 檢測能力完全是為了檢測存儲在 iCloud 照片中的已知 CSAM 圖像,這些圖像已經(jīng)被 NCMEC 和其他兒童安全團(tuán)體的專家確認(rèn)。我們以前曾面臨過建立和部署政府授權(quán)的、降低用戶隱私的變化的要求,并堅定地拒絕了這些要求。我們將在未來繼續(xù)拒絕它們。我們要清楚,這項技術(shù)只限于檢測存儲在 iCloud 中的 CSAM,我們不會答應(yīng)任何政府的要求,擴大它。此外,蘋果公司在向 NCMEC 進(jìn)行報告前會進(jìn)行人工審查。在系統(tǒng)標(biāo)記的照片與已知的 CSAM 圖像不一致的情況下,該賬戶不會被禁用,也不會向 NCMEC 提交報告。
能否將非 CSAM 圖像“注入”系統(tǒng),以標(biāo)記 CSAM 以外的賬戶?
我們的程序是為了防止這種情況發(fā)生。用于匹配的圖像哈希值集來自已知的、現(xiàn)有的 CSAM 圖像,這些圖像已被兒童安全組織獲得并驗證。蘋果公司不會向已知的 CSAM 圖像散列集添加。同一套哈希值存儲在每個 iPhone 和 iPad 用戶的操作系統(tǒng)中,所以在我們的設(shè)計中,不可能只針對特定的個人進(jìn)行攻擊。最后,沒有自動向執(zhí)法部門報告,蘋果在向 NCMEC 報告前會進(jìn)行人工審查。在不太可能發(fā)生的情況下,系統(tǒng)標(biāo)記的圖像與已知的 CSAM 圖像不匹配,該賬戶不會被禁用,也不會向 NCMEC 提交報告。
IT之家了解到,蘋果公司已經(jīng)面臨來自隱私倡導(dǎo)者、安全研究人員、密碼學(xué)專家、學(xué)者和其他人的重大批評,因為蘋果公司決定在預(yù)計 9 月發(fā)布的 iOS15 和 iPadOS15 中部署該技術(shù)。
有人還為此發(fā)布了一封公開信,批評蘋果掃描 iPhone 的 iCloud 照片中的 CSAM 和兒童信息中的露骨圖像的計劃,截至發(fā)稿,該信已獲得 5500 多個簽名。蘋果也收到了來自 Facebook 旗下 WhatsApp 的批評,其負(fù)責(zé)人 Will Cathcart 稱這是“錯誤的做法,是對全世界人民隱私的挫敗”。Epic Games 首席執(zhí)行官蒂姆-斯威尼(Tim Sweeney)也對這一決定進(jìn)行了攻擊,聲稱他“努力”從蘋果的角度看待這一舉動,但得出的結(jié)論是,“不可避免地,這是蘋果基于有罪推定而安裝的政府間諜軟件”。
“不管用意多么好,蘋果正在以此向整個世界推出大規(guī)模監(jiān)控,”愛德華-斯諾登說,“如果他們今天能掃描兒童色情,明天就能掃描任何東西?!狈菭I利性的電子前沿基金會也批評了蘋果公司的計劃,稱“即使是一個有詳細(xì)記錄的、經(jīng)過深思熟慮的、范圍狹窄的后門,仍然是一個后門”。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。