有很長(zhǎng)一段時(shí)間,AI(人工智能)這個(gè)詞變得沒那么讓人興奮了。
人們已經(jīng)躲不開它,但同時(shí)也發(fā)覺,無論是 AI 的技術(shù)演進(jìn)還是商業(yè)應(yīng)用,似乎都遇到了瓶頸。人們有很多年沒再體驗(yàn)到 AlphaGo 那樣的驚艷,業(yè)界也沒再經(jīng)歷像語音助手普及那樣的商業(yè)機(jī)會(huì),甚至許多投資人也只是在實(shí)在沒什么新鮮故事時(shí),才不情愿的又轉(zhuǎn)身回頭看起了 AI 的機(jī)會(huì)。
不過,就在這個(gè)全人類都忙著卷來卷去的 2022,AI 卻正在經(jīng)歷一次近年來最大的一次進(jìn)化。
AI 突然翻紅
就在 10 月 18 號(hào),因?yàn)橥瞥?Stable Diffusion 文本-圖像 AI 生成模型而大火的人工智能公司 StabilityAI 宣布完成 1.01 億美元的種子輪融資,讓整個(gè)公司估值達(dá)到 10 億美金,成為所謂“獨(dú)角獸”企業(yè)。這距離 StabilityAI 成立僅有兩年時(shí)間。
即便以科技互聯(lián)網(wǎng)產(chǎn)業(yè)發(fā)展的標(biāo)準(zhǔn)看,StabilityAI 的成長(zhǎng)速度也是驚人的,這種速度是 2022 年以來全球 AI 產(chǎn)業(yè)爆發(fā)式增長(zhǎng)的一個(gè)縮影,此刻距 StabilityAI 旗下的 Stable Diffusion 開源模型風(fēng)靡全球尚不足 2 個(gè)月。
這種疾風(fēng)驟雨的突飛猛進(jìn)堪稱一場(chǎng)真正的革命,尤其在全球經(jīng)濟(jì)預(yù)期轉(zhuǎn)弱的大背景下。
同所有的革命一樣,這場(chǎng) AI 革命也不是一夜之間完成的。
一直以來人們都有一個(gè)夢(mèng)想,即借助人工智能 AI 技術(shù)來拓展現(xiàn)有人類智慧、知識(shí)和創(chuàng)造力的邊界,但人腦復(fù)雜結(jié)構(gòu)帶來的學(xué)習(xí)能力遠(yuǎn)超人類構(gòu)建 AI 的能力,于是 AI 只能通過各種特定深度學(xué)習(xí)模型來單點(diǎn)突破某些特定領(lǐng)域,比如 alphaGO 用來學(xué)習(xí)圍棋,又比如通過天文大數(shù)據(jù)幫助尋找脈沖星候選體。
而 AIGC,即基于 AI 能力的內(nèi)容創(chuàng)作(包括文字、圖片和視頻等等)也是其中一個(gè)重要類別,2022 年之前,囿于核心技術(shù)的局限性,這個(gè)領(lǐng)域一直不溫不火,因?yàn)?AI 并沒有點(diǎn)石成金的法術(shù),它不具備人類憑空創(chuàng)造的能力。AI 的“深度學(xué)習(xí)”訓(xùn)練并不是擁有自我意識(shí)的自主學(xué)習(xí),是通過收集大量樣本讓 AI 從海量數(shù)據(jù)中總結(jié)規(guī)律,再根據(jù)人類的指令,基于規(guī)律進(jìn)行內(nèi)容再生產(chǎn)的過程,它同時(shí)受核心算法、硬件條件、數(shù)據(jù)庫(kù)樣本等多方面的限制。
在 2022 年之前,AIGC 領(lǐng)域使用最多的算法模型名為對(duì)抗生成網(wǎng)絡(luò) GAN (Generative adversarial networks),顧名思義就是讓 AI 內(nèi)部的兩個(gè)程序互相對(duì)比,從而生成最接近人類心目中的正確形象。但這個(gè)算法有一個(gè)嚴(yán)重問題,由于程序互相對(duì)比的標(biāo)準(zhǔn)是現(xiàn)成的樣本,因此生成的內(nèi)容實(shí)質(zhì)上是對(duì)現(xiàn)有內(nèi)容無限逼近的模仿,而模仿,意味著它無法真正突破。
GAN 的缺點(diǎn)被最終被 diffusion 擴(kuò)散化模型克服,它正是今年以來陸續(xù)涌現(xiàn)的包括 Stable Diffusion 開源模型在內(nèi)的諸多 AIGC 圖片生成模型的技術(shù)核心。
diffusion 擴(kuò)散化模型的原理類似給照片去噪點(diǎn),通過學(xué)習(xí)給一張圖片去噪的過程來理解有意義的圖像是如何生成,因此 diffusion 模型生成的圖片相比 GAN 模型精度更高,更符合人類視覺和審美邏輯,同時(shí)隨著樣本數(shù)量和深度學(xué)習(xí)時(shí)長(zhǎng)的累積,diffusion 模型展現(xiàn)出對(duì)藝術(shù)表達(dá)風(fēng)格較好的模仿能力。
從今年初引起廣泛關(guān)注的 Disco Diffusion ,再到 DALL-E2、MidJourney 等模型都是基于 Diffusion 模型,而拿到融資的 Stable Diffusion 是其中最受歡迎的。由于 StabilityAI 對(duì)科技社區(qū)氛圍的擁護(hù)和對(duì)技術(shù)中立原則的認(rèn)同,Stable Diffusion 主動(dòng)開放了自己的源代碼,不僅方便人們部署在本地使用(普通消費(fèi)級(jí)顯卡既能滿足 Stable Diffusion 的硬件要求),還帶來了魔術(shù)般的用戶體驗(yàn):打開網(wǎng)址,輸入你想要畫面的關(guān)鍵字,等待幾分鐘,模型就會(huì)生成完成度非常高的圖片作品。普通人使用最尖端 AI 技術(shù)的門檻因此被降到最低,上線以來,僅通過官方平臺(tái) DreamStudio 制作的生成圖片就超過 1.7 萬億張。
AIGC 沉寂許久的革命火種,瞬間燎原。
絢爛的藍(lán)海
以 StabilityAI 為代表的的 AIGC 圖片生成模型在如此短的時(shí)間內(nèi)發(fā)展到極為成熟的地步,預(yù)示著它從比較傳統(tǒng)的設(shè)計(jì)繪圖、插畫、游戲視覺,電子商務(wù)等領(lǐng)域到大熱的元宇宙和虛擬現(xiàn)實(shí)技術(shù)都擁有巨大的發(fā)展?jié)摿Α?/p>
想象一下,在未來的 VR / AR 虛擬世界里,你腦海中想到的畫面可以借助 ai 生成技術(shù)實(shí)時(shí)渲染出來,這將會(huì)對(duì)人們娛樂和獲取信息的方式產(chǎn)生怎樣的顛覆?
但這不是市場(chǎng)在如今經(jīng)濟(jì)大環(huán)境極為低迷之際為 AI 投下贊成票的全部原因,廣泛的商業(yè)潛力固然吸引人,但更值得投入的是 AI 技術(shù)本身。這場(chǎng)革命還未完結(jié),它的下一篇章已經(jīng)向人們走來。
那就是生成視頻。
從本質(zhì)上講,視頻是連續(xù)的靜態(tài)圖像,隨著 ai 圖片生成技術(shù)的日益成熟,許多人都把目光投向生成視頻領(lǐng)域,9 月以來,Meta 和 Google 先后公布了自己在這一 AIGC 最前沿領(lǐng)域的最新成果。
Meta 的模型名為 Make-A-Video,通過學(xué)習(xí)大量文本-圖像組合樣本數(shù)據(jù)和無文本標(biāo)記的視頻來理解真實(shí)世界中物體的運(yùn)動(dòng)邏輯,Make-A-Video 能夠初步在構(gòu)建圖像的基礎(chǔ)上讓圖像動(dòng)起來,同時(shí)擁有理解三維物體立體結(jié)構(gòu)的能力。
名為 imagen video 的模型則通過被稱為聯(lián)級(jí)擴(kuò)散系列模型的方法生成視頻。也就是先通過基礎(chǔ)擴(kuò)散模型生成分辨率較小的視頻,然后再通過一系列時(shí)間、空間超分辨率模型提升視頻的分辨率和幀數(shù)。
橫向比較來看,imagen 的視頻分辨率(1280X768 )高于 Make-A-Video,時(shí)長(zhǎng)也略長(zhǎng)一些。
但突破還不止于此,另一個(gè)名為 Phenaki 的 AI 視頻生成模型(也來自 Google 團(tuán)隊(duì))公布了其能夠根據(jù)文本內(nèi)容生成可變時(shí)長(zhǎng)視頻的技術(shù),也就是說 Phenaki 有從文本中提煉理解故事情節(jié)并將其轉(zhuǎn)化為視頻的能力。
公布的 demo 中,Phenaki 基于幾百個(gè)單詞組成的一連串有前后邏輯關(guān)系的文本指令生成了一段 2 分多鐘的連貫視頻,這種充滿鏡頭感、豐富情節(jié)和轉(zhuǎn)場(chǎng)的故事片雛形假以時(shí)日勢(shì)必對(duì)未來整個(gè)視頻行業(yè),包括短視頻、電視電影等產(chǎn)生廣泛沖擊。
生成視頻模型尚在起步階段,在具體運(yùn)動(dòng)的細(xì)節(jié)、畫面精細(xì)度、不同物體和人的互動(dòng)等方面尚顯稚嫩,從分辨率到畫質(zhì)上也有濃濃的“人工智能”痕跡,然而回想 AI 圖片生成模型同樣經(jīng)歷了從全網(wǎng)群嘲到逆襲的過程,后之視今亦猶今之視昔,誰又能說這未嘗不是 AIGC 革命下一個(gè)高潮即將來臨的預(yù)言?
劇變帶來的爭(zhēng)議
劇烈的變化總是伴隨著爭(zhēng)議,以 Stable Diffusion 為代表的 AIGC 革命“圖像階段”也是如此,我們?cè)囍鴮⑵錃w納為下面幾個(gè)問題并做出初步回答。
(1)AI 生成內(nèi)容的版權(quán)問題該如何界定?
中國(guó)的著作權(quán)法中規(guī)定只有自然人或組織可以被認(rèn)定為作者,因此 ai 生成內(nèi)容并沒有享有著作權(quán)的實(shí)體。如果沒有更多協(xié)定約束,AI 生成內(nèi)容可以被任意使用,包括商業(yè)使用在內(nèi)。Midjourney、Dell-e 等都明確表示用戶擁有自己生成作品的所有權(quán)。
值得一提的是,很多 AI 生成技術(shù)深度學(xué)習(xí)訓(xùn)練所使用的數(shù)據(jù)庫(kù)中可能包含了侵權(quán)內(nèi)容,但因此導(dǎo)致用戶生成內(nèi)容侵權(quán)的可能性非常低,因?yàn)樯蓛?nèi)容本身是充滿高度隨機(jī)和不確定性的,即使陷入版權(quán)爭(zhēng)議,舉證過程也會(huì)極為困難。
(2)AI 生成內(nèi)容是否具有藝術(shù)性?如果有,該如何評(píng)價(jià)與界定?
AI 生成內(nèi)容的藝術(shù)性在半年之前還是個(gè)看著有些無聊的問題,但在《歌劇院空間》作品獲獎(jiǎng)后,人們開始越來越多的談?wù)撍?/p>
總的來說,AI 生成的內(nèi)容并不是自己創(chuàng)造的,它受自身模型算法和數(shù)據(jù)庫(kù)樣本容量影響,這也是許多人聲稱 ai 生成內(nèi)容“沒有靈魂”的原因。
然而僅僅把 AI 生成技術(shù)看做純粹的工具也是不公平的,因?yàn)樗粌H可以模仿,而且算法和樣本一同提供了現(xiàn)有人類所不能完全提供的創(chuàng)作視角。
現(xiàn)有的 AI 生成圖像技術(shù)已經(jīng)讓人們參與圖像創(chuàng)作的門檻變得無限低,因此對(duì)生成作品的藝術(shù)性鑒賞或許應(yīng)該從更細(xì)分的角度入手,正如 NFT 之于傳統(tǒng)藝術(shù)品一樣,它的價(jià)值需要經(jīng)過市場(chǎng)的檢驗(yàn),而藝術(shù)品市場(chǎng)對(duì)此正處于理解和接受的初級(jí)階段。
(3)AIGC 革命的“圖像階段”對(duì)圖像工作者和藝術(shù)創(chuàng)作者來說意味著什么?
隨著 AI 生成技術(shù)“民主化”,未來中低端繪畫內(nèi)容和它的市場(chǎng)會(huì)被 AI 代替,這意味著大批腰部及以下的圖像工作者、插畫師、設(shè)計(jì)師等會(huì)失去現(xiàn)有工作。
隨著 AI 生成圖像內(nèi)容越來越豐富和逼真,它們也正在根本上解構(gòu)著商業(yè)圖片庫(kù)賴以生存的運(yùn)營(yíng)模式 —— 如果圖片可以自己生成的話,誰還要花錢買圖呢?
但 AI 生成技術(shù)同樣拓展了人們對(duì)繪畫工具能力的理解。對(duì)藝術(shù)創(chuàng)作者來說,AI 生成技術(shù)將有利于他們基于自身理念(而不是技法)創(chuàng)造更多維度,更具創(chuàng)造性的作品。
未來將會(huì)是創(chuàng)作者創(chuàng)造力的比拼,因?yàn)?AI“消除了外行表達(dá)創(chuàng)造力的障礙?!保ū燃s恩?奧姆所說,他的團(tuán)隊(duì)開發(fā)出了 Stable Diffusion 最初的基礎(chǔ)算法。)
(4)AI 生成內(nèi)容應(yīng)該如何監(jiān)管,如何防止虛假信息和不適宜信息的傳播?
秉持技術(shù)中立態(tài)度的研究者例如 StabilityAI 會(huì)盡量減少對(duì)內(nèi)容的控制和干預(yù)。他們認(rèn)為一個(gè)開放和充分討論的社區(qū)將會(huì)逐步形成對(duì)信息內(nèi)容傳播的監(jiān)督機(jī)制。
“使用者自己需要為如何使用這項(xiàng)技術(shù)負(fù)責(zé),這包括道德和法律上的合規(guī)性。”Stability AI 公司 CEO Emad Mostaque 曾在采訪中如此表示。
與此同時(shí),盡管深度學(xué)習(xí)所用到的數(shù)據(jù)庫(kù)經(jīng)過了嚴(yán)格的篩選,屏蔽了色情、暴力、恐怖等內(nèi)容,但有關(guān)社會(huì)刻板偏見、種族歧視等內(nèi)容尚無法從技術(shù)上完全消除,更重要的是,關(guān)于如何界定所謂偏見在倫理學(xué)上仍然是一個(gè)頗受爭(zhēng)議的問題。正因如此,Google 決定在排除相關(guān)風(fēng)險(xiǎn)前推遲公開發(fā)布 imagen video 模型,而許多已發(fā)布的模型選擇為其生成作品加上不可去掉的水印來避免潛在爭(zhēng)議。
AIGC 革命如火如荼進(jìn)行中,它不是將來時(shí),而是進(jìn)行時(shí)。我們已經(jīng)身處其中。
現(xiàn)在就是未來。
本文來自微信公眾號(hào):品玩 (ID:pinwancool),作者:Neil Shen
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。