“排隊(duì) 1241 人,等待 2600 秒……”
—— 這屆網(wǎng)友為了看一眼自己在動(dòng)漫里的樣子,可真是拼了。
“始作俑者”是一款可以把人像變動(dòng)漫的生成器。
只需一張圖片或一段視頻,無(wú)論男女老少、明星素人都可以一睹自己的“動(dòng)漫風(fēng)采”~
什么“國(guó)民老婆”王冰冰:
什么“國(guó)民妹妹”IU:
什么科技圈大佬、EDG 成員、金發(fā)美女、容嬤嬤……
發(fā)絲、眉宇,甚至眼神里流露出來(lái)的情緒,都給你“描繪”得淋漓盡致……
▲ 視頻效果
這也難怪網(wǎng)友把服務(wù)器都給擠爆了。
隨便翻翻大家的作品,簡(jiǎn)直是深不見(jiàn)底。
再看看 GitHub 上的相關(guān)項(xiàng)目,果然也沖上了趨勢(shì)榜第一名。
這個(gè) AnimeGAN,真是厲害了!
如何給自己捏一個(gè)動(dòng)漫臉?
看完展示的效果,你是不是也想打造一個(gè)自己專屬的漫畫臉了呢?
這個(gè)可以有,現(xiàn)在就手把手教你。
第一種方法就 very very 簡(jiǎn)單了,只需要上傳一張照片就可以。
提供在線玩法的網(wǎng)站(鏈接見(jiàn)文末),就是那個(gè)著名的抱抱臉 (Hugging Face)。
它專門開設(shè)了一個(gè)在線 AnimeGANv2 的 App,直接把圖片“丟”進(jìn)去就好。
BUT?。?!
也正如剛才提到的,現(xiàn)在這個(gè) AI 著實(shí)有點(diǎn)太火了,簡(jiǎn)單的在線方法,就等同于排大隊(duì)。
這不,等了 5259 秒之后,前面還有 15 人……
如果不想排隊(duì)怎么辦?
接下來(lái),就是第二種方法了 —— 上代碼!
熱心網(wǎng)友在苦等了 3 小時(shí)之后,終于還是忍不住了,強(qiáng)烈安利 Colab 版本(鏈接見(jiàn)文末):
先運(yùn)行一下文檔里的前兩段代碼,然后只需要簡(jiǎn)單修改照片路徑即可。
當(dāng)然,如果想加大難度挑戰(zhàn)一下,AnimeGANv2 的 GitHub 項(xiàng)目也是有的哈:
以上介紹的方法都是用圖片轉(zhuǎn)換,如果你想用視頻的話,在 AnimeGANv2 項(xiàng)目中執(zhí)行下面這兩條命令就 OK:
當(dāng)然,該項(xiàng)目的 Pytorch 實(shí)現(xiàn)也有,不過(guò) Pytorch 版本目前只支持圖片轉(zhuǎn)換;如果想轉(zhuǎn)視頻,暫時(shí)就需要你自己寫個(gè)腳本了~
風(fēng)格遷移 + GAN
那么,如此效果的背后,到底是用了什么原理呢?
AnimeGAN 是來(lái)自武漢大學(xué)和湖北工業(yè)大學(xué)的一項(xiàng)研究,采用的是神經(jīng)風(fēng)格遷移 + 生成對(duì)抗網(wǎng)絡(luò)(GAN)的組合。
它其實(shí)是基于 CartoonGAN 的改進(jìn),并提出了一個(gè)更加輕量級(jí)的生成器架構(gòu)。
AnimeGAN 的生成器可以視作一個(gè)對(duì)稱的編碼器-解碼器網(wǎng)絡(luò),由標(biāo)準(zhǔn)卷積、深度可分離卷積、反向殘差塊、上采樣和下采樣模塊組成。
為了有效減少生成器的參數(shù)數(shù)量,AnimeGAN 的網(wǎng)絡(luò)中使用了 8 個(gè)連續(xù)且相同的 IRB(inverted residual blocks)。
在生成器中,具有 1×1 卷積核的最后一個(gè)卷積層不使用歸一化層,跟隨其后的是 tanh 非線性激活函數(shù)。
上圖中,K 為內(nèi)核大小,C 為特征圖數(shù)量,S 為每個(gè)卷積層的跨度,H 是特征圖的高度,W 是特征圖的寬度,Resize 值用于設(shè)置特征圖大小的插值方法,⊕表示逐元素加法。
而此次的 V2 版本,是基于第一代 AnimeGAN 的升級(jí),主要解決了模型生成的圖像中存在高頻偽影的問(wèn)題。
具體而言,所采取的措施是使用特征的層歸一化(layer normalization),來(lái)防止網(wǎng)絡(luò)在生成的圖像中產(chǎn)生高頻偽影。
作者認(rèn)為,層歸一化可以使 feature map 中的不同通道,具有相同的特征屬性分布,可以有效地防止局部噪聲的產(chǎn)生。
AnimeGANv2 的生成器參數(shù)大小為 8.6MB,而 AnimeGAN 的生成器參數(shù)大小為 15.8MB。
它倆使用的鑒別器大致相同,區(qū)別在于 AnimeGANv2 使用的是層歸一化,而不是實(shí)例歸一化(instance normalization)。
網(wǎng)友:我變漂亮了
這個(gè) AI 可算是圈了一眾粉絲。
有些網(wǎng)友“沖進(jìn)二次元”之后,發(fā)現(xiàn)了自己驚人的美貌:
它把我變漂亮了!
而且非常驕傲的曬出了自己的漫畫臉。
還有網(wǎng)友看完比爾蓋茨的效果之后,直呼:
天!蓋茨看起來(lái)聰明又性感。
就連新海誠(chéng)導(dǎo)演都曾轉(zhuǎn)發(fā)過(guò) AnimeGAN 的作品呢。
One More Thing
最后,大家上手之前一定要注意,雖然 AnimeGAN 展示的效果都是比較好的,但這有一個(gè)大前提:
照片一定要高清、五官盡量要清晰!
不然畫風(fēng)可能就會(huì)變得詭異(作者親測(cè),欲哭無(wú)淚)……
那么,你在漫畫里是什么樣子?
快去試試吧~
在線 Demo:
https://huggingface.co/spaces/akhaliq/AnimeGANv2
Colab 版本:
https://colab.research.google.com/drive/1jCqcKekdtKzW7cxiw_bjbbfLsPh-dEds?usp=sharing#scrollTo=niSP_i7FVC3c
GitHub 地址:
https://github.com/TachibanaYoshino/AnimeGANv2
https://github.com/bryandlee/animegan2-pytorch
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。