設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

掃描不良圖片引爭議,蘋果發(fā)布 FAQ 進(jìn)行說明

2021/8/9 17:29:27 來源:IT之家 作者:遠(yuǎn)洋 責(zé)編:遠(yuǎn)洋

IT之家 8 月 9 日消息 蘋果公司發(fā)布了題為 “擴大對兒童的保護(hù)”的常見問題(FAQ),旨在消除用戶對該公司上周宣布的 iCloud 照片中的 CSAM(兒童受虐材料)檢測和信息通信安全功能的隱私擔(dān)憂。

“自從我們宣布這些功能以來,包括隱私組織和兒童安全組織在內(nèi)的許多利益相關(guān)者都表示支持這個新的解決方案,有些人還提出了一些問題,”FAQ 中寫道,“這份文件的作用是解決這些問題,并在這個過程中提供更多的清晰度和透明度。”

蘋果在文件中稱,信息中的通信安全“只對家庭共享中設(shè)置的兒童賬戶在信息應(yīng)用中發(fā)送或接收的圖像有效”,而 iCloud 照片中的 CSAM 檢測“只影響選擇使用 iCloud 照片存儲其照片的用戶...... 對任何其他設(shè)備上的數(shù)據(jù)沒有影響?!?/p>

FAQ 中寫到:

這兩個功能是不一樣的,也沒有使用相同的技術(shù)。

信息中的通信安全旨在為家長和兒童提供額外的工具,以幫助保護(hù)他們的孩子避免在信息應(yīng)用中發(fā)送和接收色情圖片。它只對在家庭共享中設(shè)置的兒童賬戶在信息應(yīng)用中發(fā)送或接收的圖像起作用。它在設(shè)備上分析圖像,因此不改變信息的隱私保證。當(dāng)兒童賬戶發(fā)送或接收色情圖片時,照片將被模糊化,兒童將被警告,并提供有用的資源,并保證如果他們不想查看或發(fā)送照片也沒關(guān)系。作為額外的預(yù)防措施,還可以告訴年幼的孩子,為了確保他們的安全,如果他們真的查看了照片,他們的父母會收到一條信息。

第二項功能,即 iCloud 照片中的 CSAM 檢測,旨在將 CSAM 擋在 iCloud 照片之外,而不向蘋果提供任何與已知 CSAM 圖像相匹配的照片的信息。在大多數(shù)國家,包括美國,擁有 CSAM 圖像是非法的。這項功能只影響選擇使用 iCloud 照片來存儲照片的用戶。它不影響沒有選擇使用 iCloud 照片的用戶。對任何其他設(shè)備上的數(shù)據(jù)都沒有影響。該功能不適用于信息。

該文件的其余部分分為三個部分(以下為黑體字),并對以下常見問題進(jìn)行了解答:

信息中的通信安全

  • 誰可以在信息中使用通信安全?

  • 這是否意味著信息將與蘋果或執(zhí)法部門共享信息?

  • 這是否會破壞信息中的端到端加密?

  • 這項功能是否會阻止受虐待家庭的兒童尋求幫助?

  • 在兒童沒有得到警告和選擇的情況下,父母是否會得到通知?

CSAM 檢測

  • 這是否意味著蘋果要掃描我的 iPhone 上存儲的所有照片?

  • 這是否會將 CSAM 圖像下載到我的 iPhone 上,與我的照片進(jìn)行對比?

  • 為什么蘋果現(xiàn)在要這樣做?

iCloud 照片的 CSAM 檢測的安全性

  • iCloud 照片中的 CSAM 檢測系統(tǒng)能否被用來檢測 CSAM 以外的東西?

  • 政府能否迫使蘋果公司將非 CSAM 圖像添加到哈希列表中?

  • 能否將非 CSAM 圖像“注入”系統(tǒng),以標(biāo)記 CSAM 以外的賬戶?

  • iCloud 照片中的 CSAM 檢測是否會向執(zhí)法部門錯誤地標(biāo)記無辜者?

有興趣的讀者應(yīng)該查閱該文件,了解蘋果對這些問題的完整回應(yīng)。然而,值得注意的是,對于那些可以用“是/否”回答的問題,蘋果都以“否”開頭,但“iCloud 照片的 CSAM 檢測安全”部分的以下三個問題除外

iCloud 照片中的 CSAM 檢測系統(tǒng)能否被用來檢測 CSAM 以外的東西?

我們的程序是為了防止這種情況發(fā)生。iCloud 照片的 CSAM 檢測是這樣建立的:該系統(tǒng)只對 NCMEC 和其他兒童安全組織提供的 CSAM 圖像散列進(jìn)行檢測。這套圖像散列值是基于兒童安全組織獲得并驗證為 CSAM 的圖像。沒有自動向執(zhí)法部門報告,蘋果公司在向 NCMEC 報告之前進(jìn)行人工審查。因此,該系統(tǒng)的設(shè)計僅用于報告 iCloud 照片中已知的 CSAM 照片。在大多數(shù)國家,包括美國,只要擁有這些圖片就是犯罪,蘋果有義務(wù)向有關(guān)當(dāng)局報告我們了解到的任何情況。

政府能否迫使蘋果將非 CSAM 圖像添加到哈希列表中?

蘋果將拒絕任何此類要求。蘋果公司的 CSAM 檢測能力完全是為了檢測存儲在 iCloud 照片中的已知 CSAM 圖像,這些圖像已經(jīng)被 NCMEC 和其他兒童安全團(tuán)體的專家確認(rèn)。我們以前曾面臨過建立和部署政府授權(quán)的、降低用戶隱私的變化的要求,并堅定地拒絕了這些要求。我們將在未來繼續(xù)拒絕它們。我們要清楚,這項技術(shù)只限于檢測存儲在 iCloud 中的 CSAM,我們不會答應(yīng)任何政府的要求,擴大它。此外,蘋果公司在向 NCMEC 進(jìn)行報告前會進(jìn)行人工審查。在系統(tǒng)標(biāo)記的照片與已知的 CSAM 圖像不一致的情況下,該賬戶不會被禁用,也不會向 NCMEC 提交報告。

能否將非 CSAM 圖像“注入”系統(tǒng),以標(biāo)記 CSAM 以外的賬戶?

我們的程序是為了防止這種情況發(fā)生。用于匹配的圖像哈希值集來自已知的、現(xiàn)有的 CSAM 圖像,這些圖像已被兒童安全組織獲得并驗證。蘋果公司不會向已知的 CSAM 圖像散列集添加。同一套哈希值存儲在每個 iPhone 和 iPad 用戶的操作系統(tǒng)中,所以在我們的設(shè)計中,不可能只針對特定的個人進(jìn)行攻擊。最后,沒有自動向執(zhí)法部門報告,蘋果在向 NCMEC 報告前會進(jìn)行人工審查。在不太可能發(fā)生的情況下,系統(tǒng)標(biāo)記的圖像與已知的 CSAM 圖像不匹配,該賬戶不會被禁用,也不會向 NCMEC 提交報告。

IT之家了解到,蘋果公司已經(jīng)面臨來自隱私倡導(dǎo)者、安全研究人員、密碼學(xué)專家、學(xué)者和其他人的重大批評,因為蘋果公司決定在預(yù)計 9 月發(fā)布的 iOS15 和 iPadOS15 中部署該技術(shù)。

有人還為此發(fā)布了一封公開信,批評蘋果掃描 iPhone 的 iCloud 照片中的 CSAM 和兒童信息中的露骨圖像的計劃,截至發(fā)稿,該信已獲得 5500 多個簽名。蘋果也收到了來自 Facebook 旗下 WhatsApp 的批評,其負(fù)責(zé)人 Will Cathcart 稱這是“錯誤的做法,是對全世界人民隱私的挫敗”。Epic Games 首席執(zhí)行官蒂姆-斯威尼(Tim Sweeney)也對這一決定進(jìn)行了攻擊,聲稱他“努力”從蘋果的角度看待這一舉動,但得出的結(jié)論是,“不可避免地,這是蘋果基于有罪推定而安裝的政府間諜軟件”。

“不管用意多么好,蘋果正在以此向整個世界推出大規(guī)模監(jiān)控,”愛德華-斯諾登說,“如果他們今天能掃描兒童色情,明天就能掃描任何東西?!狈菭I利性的電子前沿基金會也批評了蘋果公司的計劃,稱“即使是一個有詳細(xì)記錄的、經(jīng)過深思熟慮的、范圍狹窄的后門,仍然是一個后門”。

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應(yīng)用 魔方 最會買 要知