人臉識(shí)別又上熱搜了。就在最近,央視網(wǎng)曝出了一種分分鐘攻破人臉識(shí)別的方法:
只需要一張照片的那種。
△ 圖源:央視網(wǎng)微博
在視頻的演示中我們可以看到,隨便一個(gè)人,用一段包含點(diǎn)頭、搖頭、說(shuō)話等動(dòng)作的驅(qū)動(dòng)視頻。
原本照片里的人物也會(huì)隨之做出一樣的行為。雖然我們知道一張靜態(tài)圖,現(xiàn)在大概率是無(wú)法解鎖人臉識(shí)別。但這樣動(dòng)起來(lái)之后,結(jié)果可就不一樣了。
于是,人臉識(shí)別系統(tǒng)便自然可以輕松通過(guò):
△ 圖源:央視網(wǎng)微博
央視網(wǎng)曝出的這段視頻,成功引發(fā)了網(wǎng)友們的熱議。
許多網(wǎng)友對(duì)這種攻破人臉識(shí)別系統(tǒng)的方式表示“可怕”:
讓照片動(dòng)起來(lái)的 DeepFake
雖然央視網(wǎng)這次并沒(méi)有直接點(diǎn)名具體所涉及到的技術(shù)。
但從效果上來(lái)看,DeepFake 就可以做到這點(diǎn)。
DeepFake 大家很熟悉了,簡(jiǎn)單來(lái)說(shuō)有兩種基本方法。
第一種是將兩個(gè)人的大量面部照片輸入編碼器,編碼器在壓縮圖像的同時(shí)提取出其面部共同特征。
然后在恢復(fù)圖像時(shí),把第一個(gè)人的壓縮照片輸入另一個(gè)人的解碼器中復(fù)原,產(chǎn)生“交換“面部的效果。
第二種是生成對(duì)抗網(wǎng)絡(luò)(GAN),讓兩個(gè) AI 算法(生成器和判別器)相互對(duì)抗。
由生成器輸入隨機(jī)噪聲并轉(zhuǎn)化為圖像添加到真實(shí)圖像中,經(jīng)判別器判別。
經(jīng)過(guò)大量的循環(huán)和訓(xùn)練后,二者都得到改進(jìn),能夠輸出不存在的逼真人臉。
△ 圖源:3DCAT
但傳統(tǒng)的 DeepFake 需要有大量的原始數(shù)據(jù),并且要經(jīng)過(guò)好幾天的訓(xùn)練才能達(dá)到高質(zhì)量的效果。
若是想達(dá)到實(shí)時(shí)的效果,怎么辦?
黎顥(沒(méi)錯(cuò),就是那個(gè)殺馬特教授)團(tuán)隊(duì)就提出,將 DeepFake 和他此前做的 paGAN 結(jié)合到一起,做了一個(gè)新系統(tǒng)。
如此以來(lái),在不需要大量訓(xùn)練數(shù)據(jù)的情況下,這個(gè)系統(tǒng)也可以實(shí)時(shí)地渲染出合成圖像。
paGAN 彌補(bǔ)了 DeepFake 需要大量訓(xùn)練數(shù)據(jù)的不足,簡(jiǎn)單來(lái)說(shuō)就是把訓(xùn)練的工作量都放到臺(tái)下去做。
實(shí)時(shí)渲染有三個(gè)問(wèn)題需要克服:
需要處理大量數(shù)據(jù)以及使用更深層網(wǎng)絡(luò)訓(xùn)練更好的模型,需要生成高分辨率幀并且能夠并行或者安排任務(wù)。
而 paGAN 預(yù)先經(jīng)過(guò)大量的訓(xùn)練,分析過(guò)很多圖片的面部和表情。這樣內(nèi)部數(shù)據(jù)模型就可以在接觸到新的圖形時(shí)做出“條件反射”。
再加上 paGAN 使用了新的 ML 方法和更好的底層優(yōu)化,達(dá)到了實(shí)時(shí)渲染的效果。
△ 圖源:3DCAT
張鈸:人臉識(shí)別算法非常不安全
而這樣逼真的 DeepFake 人臉處理,只是諸多方法中的一種。
每一種方法都是人臉識(shí)別系統(tǒng)的潛在威脅。
這說(shuō)明視頻中展示的人臉識(shí)別算法還是存在著很大的漏洞。
中科院院士、清華大學(xué)人工智能研究院院長(zhǎng)張鈸,也稱這種算法很不安全,非常容易受到攻擊:
人識(shí)別對(duì)方不會(huì)因?yàn)楸砬椴灰粯?、?duì)方戴個(gè)眼鏡,或者照明、看的角度偏一點(diǎn),就不認(rèn)識(shí)他。
但計(jì)算機(jī)就很容易認(rèn)不出來(lái)。
△ 圖源:央視網(wǎng)微博
而一旦人臉驗(yàn)證被攻破,一些門(mén)禁驗(yàn)證,支付驗(yàn)證都可能形同虛設(shè)。
畢竟現(xiàn)在在社交平臺(tái)上獲取一個(gè)人的照片太簡(jiǎn)單。
這無(wú)疑給每個(gè)人的信息安全帶來(lái)了巨大的隱患。
對(duì)此,網(wǎng)友表示:早已沒(méi)什么隱私可言了,相對(duì)于人臉識(shí)別還是密碼更可靠。
參考鏈接:
[1]https://weibo.com/3266943013/KFzEcE9H0?refer_flag=1001030103_
[2]https://www.3dcat.live/share/Deepfake/
[3]https://www.fxguide.com/fxfeatured/pinscreens-advanced-face-ai-neural-rendering/
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。