如何更順滑的添加水?。?/p>
谷歌的這項(xiàng)新技術(shù),讓文本簡直就像貼在地面上,哪怕是在沙塵橫飛的場景里。
方法也很簡單。
只需輸入一段視頻,和指定對(duì)象的粗略蒙版。
那這個(gè)對(duì)象的所有相關(guān)場景元素,都能解鎖!
比如人和狗的影子。
還有黑天鵝緩緩拂過的漣漪~
以及上述那個(gè)賽車疾馳過后激起的沙塵。
不管是任意對(duì)象和主體,不論怎么移動(dòng),所有元素都能摳出來。
這就是谷歌最新的視頻分層技術(shù) ——omnimatte,入選 CVPR 2021 Oral。
目前這項(xiàng)技術(shù)已開源。
如何實(shí)現(xiàn)
計(jì)算機(jī)視覺在分割圖像或視頻中的對(duì)象方面越來越有效,然而與對(duì)象相關(guān)的場景效果。
比如陰影、反射、產(chǎn)生的煙霧等場景效果常常被忽略。
而識(shí)別這些場景效果,對(duì)提高 AI 的視覺理解很重要,那谷歌這項(xiàng)新技術(shù)又是如何實(shí)現(xiàn)的呢?
簡單來說,用分層神經(jīng)網(wǎng)絡(luò)渲染方法自監(jiān)督訓(xùn)練 CNN,來將主體與背景圖像分割開來。
由于 CNN 的特有結(jié)構(gòu),會(huì)有傾向性地學(xué)習(xí)圖像效果之間的相關(guān)性,且相關(guān)性越強(qiáng),CNN 越容易學(xué)習(xí)。
輸入一段有移動(dòng)物體的視頻,以及一個(gè)或者多個(gè)標(biāo)記主體的粗略分割蒙版。
首先,使用現(xiàn)成的分割網(wǎng)絡(luò)比如 Mask RCNN,來講這些主體分成多個(gè)遮罩層和背景噪聲圖層,并按照某種規(guī)則進(jìn)行排序。
比如,在一個(gè)騎手、一輛自行車以及幾個(gè)路人的場景中,就會(huì)把騎手和自行車歸入一個(gè)層,把人群歸入第二層。
omnimatte 模型是一個(gè)二維 UNet,逐幀處理視頻。每一幀都用現(xiàn)成的技術(shù)來計(jì)算物體掩碼,來標(biāo)記運(yùn)動(dòng)中的主體,并尋找和關(guān)聯(lián)蒙版中未捕捉到的效果,比如陰影、反射或者煙霧,重建輸入幀。
為了保證其他靜止的背景元素不被捕獲,研究人員引入了稀疏損失。
此外,還計(jì)算了視頻中每一幀和連續(xù)幀之間的密集光流場,為網(wǎng)絡(luò)提供與該層對(duì)象相關(guān)的流信息。
最終生成 Alpha 圖像(不透明度圖)和 RGBA 彩色圖像,尤其 RGBA 圖像,簡直可以說是視頻/圖像剪輯法寶!
目前這一技術(shù)已經(jīng)開源,配置環(huán)境如下:
Linux
Python 3.6+
英偉達(dá) GPU + CUDA CuDNN
有什么用途
技術(shù)效果如此,那有什么樣的用途呢?
首先就可以復(fù)制或者刪除圖像。
還有順滑地切換背景。
還可以實(shí)現(xiàn)這一經(jīng)典操作,讓原本依次掉水的小孩一起入水~
背后的團(tuán)隊(duì)
最后再來說一下背后的團(tuán)隊(duì)。
這項(xiàng)研究由谷歌研究院、牛津大學(xué)以及魏茨曼科學(xué)研究所共同完成。
其中,論文一作是牛津大學(xué)四年級(jí)博士生 Erika Lu,曾是谷歌實(shí)習(xí)生,在麻省理工學(xué)院獲得了計(jì)算機(jī)科學(xué)與工程學(xué)士學(xué)位。
論文鏈接:
https://arxiv.org/pdf/2105.06993.pdf
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。