一個文本-圖像對數(shù)據(jù)都不用,也能讓 AI 學(xué)會看文作圖?來自字節(jié)的最新 text2image 模型,就做到了。實(shí)驗(yàn)數(shù)據(jù)顯示,它的效果比 VQGAN-CLIP 要真實(shí),尤其是泛化能力還比不少用大量文本-圖像數(shù)據(jù)對訓(xùn)練出來的模型要好很多。
嗯?不給文字注釋 AI 怎么知道每一張圖片代表什么?這個模型到底咋訓(xùn)練出來的?
不用文字訓(xùn)練也能根據(jù)文本生成圖像
首先,之所以選擇這樣一種方式,作者表示,是因?yàn)槭占罅繋淖值膱D像數(shù)據(jù)集的成本太高了。而一旦擺脫對文本-圖像對數(shù)據(jù)的需求,我們就可以直接用大型無文本圖像數(shù)據(jù)集 (比如 ImageNet)來訓(xùn)練強(qiáng)大且通用的 text2image 生成器。字節(jié)實(shí)現(xiàn)的這個模型叫做 CLIP-GEN,它具體是怎么操作的?
一共分三大步。
首先,對于一幅沒有文本標(biāo)簽的圖像,使用 CLIP 的圖像編碼器,在語言-視覺(language-vision)聯(lián)合嵌入空間(embedding space)中提取圖像的 embedding。
接著,將圖像轉(zhuǎn)換為 VQGAN 碼本空間(codebook space)中的一系列離散標(biāo)記(token)。也就是將圖像以與自然語言相同的方式進(jìn)行表示,方便后續(xù)使用 Transformer 進(jìn)行處理。其中,充當(dāng) image tokenizer 角色的 VQGAN 模型,可以使用手里的無標(biāo)記圖像數(shù)據(jù)集進(jìn)行訓(xùn)練。
最后,再訓(xùn)練一個自回歸 Transformer,用它來將圖像標(biāo)記從 Transformer 的語言-視覺統(tǒng)一表示中映射出對應(yīng)圖像。經(jīng)過這樣的訓(xùn)練后,面對一串文本描述,Transformer 就可以根據(jù)從 CLIP 的文本編碼器中提取的文本嵌入(text embedding)生成對應(yīng)的圖像標(biāo)記(image tokens)了。
那這樣全程沒有文本數(shù)據(jù)參與訓(xùn)練的文本-圖像生成器,效果到底行不行?
性能與清華 CogView 相當(dāng)
作者分別在 ImageNe 和 MSCOCO 數(shù)據(jù)集上對 CLIP-GEN 進(jìn)行訓(xùn)練和評估。首先,用 MS-COCO 驗(yàn)證集中的六個文本描述生成樣本。CLIP-GEN 和其他通過大量文本-圖像對訓(xùn)練的 text2image 生成模型的效果對比如下:
其中,VQGAN-CLIP 的結(jié)果比較不真實(shí),并且伴隨嚴(yán)重的形狀扭曲。來自清華的 CogView 號稱比 DALL-E 更優(yōu)秀,在這里的實(shí)驗(yàn)中,它確實(shí)可以生成良好的圖像結(jié)構(gòu),但在紋理細(xì)節(jié)上差點(diǎn)兒事兒。DF-GAN 可以生成具有豐富細(xì)節(jié)的合理圖像,但也容易產(chǎn)生局部偽影。
作者認(rèn)為,與這些對比模型相比,CLIP-GEN 的圖像細(xì)節(jié)更豐富,質(zhì)量更高一些,比如它就很好地詮釋了第二組文字中要求的“水中倒影”(不過不太能理解“三只毛絨熊“中的數(shù)字概念)。
定量實(shí)驗(yàn)結(jié)果基本證明了這一結(jié)論:
CLIP-GEN 拿到了最高的 FID-0、FID-1 分?jǐn)?shù);CapS 得分(衡量輸入文本和生成圖像之間的語義相似性)除了比 CogView 低 4%,比其他模型都高很多。
此外,作者還發(fā)現(xiàn),CLIP-GEN 的泛化能力似乎也不錯。在下面這組非常規(guī)的文字描述中,比如生成“一只會飛的企鵝”,“叼雪茄的狗”、“有臉和頭發(fā)的檸檬”……CLIP-GEN 基本都可以實(shí)現(xiàn),別的模型卻不太能理解。
作者介紹
本模型的五位作者全部來自字節(jié)。
一作 Wang Zihao 本科畢業(yè)于北京理工大學(xué),博士畢業(yè)于 UC 伯克利,曾在谷歌擔(dān)任 3 年軟件開發(fā)工程師,現(xiàn)就職于 TikTok。
通訊作者名叫易子立,本科畢業(yè)于南京大學(xué),博士畢業(yè)于加拿大紐芬蘭紀(jì)念大學(xué),目前在字節(jié)擔(dān)任人工智能專家(主要研究多模態(tài)、超分辨率、人臉特效),在此之前,他曾在華為工作。
論文地址:
https://arxiv.org/abs/2203.00386
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。