設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

一張照片攻破人臉識(shí)別系統(tǒng):能點(diǎn)頭搖頭還能張嘴

量子位 2021/11/4 20:46:06 責(zé)編:問(wèn)舟

人臉識(shí)別又上熱搜了。就在最近,央視網(wǎng)曝出了一種分分鐘攻破人臉識(shí)別的方法:

只需要一張照片的那種。

△ 圖源:央視網(wǎng)微博

在視頻的演示中我們可以看到,隨便一個(gè)人,用一段包含點(diǎn)頭、搖頭、說(shuō)話等動(dòng)作的驅(qū)動(dòng)視頻。

原本照片里的人物也會(huì)隨之做出一樣的行為。雖然我們知道一張靜態(tài)圖,現(xiàn)在大概率是無(wú)法解鎖人臉識(shí)別。但這樣動(dòng)起來(lái)之后,結(jié)果可就不一樣了。

于是,人臉識(shí)別系統(tǒng)便自然可以輕松通過(guò):

△ 圖源:央視網(wǎng)微博

央視網(wǎng)曝出的這段視頻,成功引發(fā)了網(wǎng)友們的熱議。

許多網(wǎng)友對(duì)這種攻破人臉識(shí)別系統(tǒng)的方式表示“可怕”:

讓照片動(dòng)起來(lái)的 DeepFake

雖然央視網(wǎng)這次并沒(méi)有直接點(diǎn)名具體所涉及到的技術(shù)。

但從效果上來(lái)看,DeepFake 就可以做到這點(diǎn)。

DeepFake 大家很熟悉了,簡(jiǎn)單來(lái)說(shuō)有兩種基本方法。

第一種是將兩個(gè)人的大量面部照片輸入編碼器,編碼器在壓縮圖像的同時(shí)提取出其面部共同特征。

然后在恢復(fù)圖像時(shí),把第一個(gè)人的壓縮照片輸入另一個(gè)人的解碼器中復(fù)原,產(chǎn)生“交換“面部的效果。

第二種是生成對(duì)抗網(wǎng)絡(luò)(GAN),讓兩個(gè) AI 算法(生成器和判別器)相互對(duì)抗。

由生成器輸入隨機(jī)噪聲并轉(zhuǎn)化為圖像添加到真實(shí)圖像中,經(jīng)判別器判別。

經(jīng)過(guò)大量的循環(huán)和訓(xùn)練后,二者都得到改進(jìn),能夠輸出不存在的逼真人臉。

△ 圖源:3DCAT

但傳統(tǒng)的 DeepFake 需要有大量的原始數(shù)據(jù),并且要經(jīng)過(guò)好幾天的訓(xùn)練才能達(dá)到高質(zhì)量的效果。

若是想達(dá)到實(shí)時(shí)的效果,怎么辦?

黎顥(沒(méi)錯(cuò),就是那個(gè)殺馬特教授)團(tuán)隊(duì)就提出,將 DeepFake 和他此前做的 paGAN 結(jié)合到一起,做了一個(gè)新系統(tǒng)。

如此以來(lái),在不需要大量訓(xùn)練數(shù)據(jù)的情況下,這個(gè)系統(tǒng)也可以實(shí)時(shí)地渲染出合成圖像。

paGAN 彌補(bǔ)了 DeepFake 需要大量訓(xùn)練數(shù)據(jù)的不足,簡(jiǎn)單來(lái)說(shuō)就是把訓(xùn)練的工作量都放到臺(tái)下去做。

實(shí)時(shí)渲染有三個(gè)問(wèn)題需要克服:

需要處理大量數(shù)據(jù)以及使用更深層網(wǎng)絡(luò)訓(xùn)練更好的模型,需要生成高分辨率幀并且能夠并行或者安排任務(wù)。

而 paGAN 預(yù)先經(jīng)過(guò)大量的訓(xùn)練,分析過(guò)很多圖片的面部和表情。這樣內(nèi)部數(shù)據(jù)模型就可以在接觸到新的圖形時(shí)做出“條件反射”。

再加上 paGAN 使用了新的 ML 方法和更好的底層優(yōu)化,達(dá)到了實(shí)時(shí)渲染的效果。

△ 圖源:3DCAT

張鈸:人臉識(shí)別算法非常不安全

而這樣逼真的 DeepFake 人臉處理,只是諸多方法中的一種。

每一種方法都是人臉識(shí)別系統(tǒng)的潛在威脅。

這說(shuō)明視頻中展示的人臉識(shí)別算法還是存在著很大的漏洞。

中科院院士、清華大學(xué)人工智能研究院院長(zhǎng)張鈸,也稱這種算法很不安全,非常容易受到攻擊:

人識(shí)別對(duì)方不會(huì)因?yàn)楸砬椴灰粯?、?duì)方戴個(gè)眼鏡,或者照明、看的角度偏一點(diǎn),就不認(rèn)識(shí)他。

但計(jì)算機(jī)就很容易認(rèn)不出來(lái)。

△ 圖源:央視網(wǎng)微博

而一旦人臉驗(yàn)證被攻破,一些門(mén)禁驗(yàn)證,支付驗(yàn)證都可能形同虛設(shè)。

畢竟現(xiàn)在在社交平臺(tái)上獲取一個(gè)人的照片太簡(jiǎn)單。

這無(wú)疑給每個(gè)人的信息安全帶來(lái)了巨大的隱患。

對(duì)此,網(wǎng)友表示:早已沒(méi)什么隱私可言了,相對(duì)于人臉識(shí)別還是密碼更可靠。

參考鏈接:

[1]https://weibo.com/3266943013/KFzEcE9H0?refer_flag=1001030103_

[2]https://www.3dcat.live/share/Deepfake/

[3]https://www.fxguide.com/fxfeatured/pinscreens-advanced-face-ai-neural-rendering/

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

軟媒旗下網(wǎng)站: IT之家 最會(huì)買(mǎi) - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買(mǎi) 要知