IT之家 2 月 18 日消息,OpenAI 近日發(fā)布了 Sora 模型,可以根據(jù)用戶輸入的文本描述,生成一段視頻內(nèi)容,一經(jīng)公布便引發(fā)網(wǎng)友熱議。然而,Sora 的能力還不止于此。
當(dāng)?shù)貢r(shí)間周六 OpenAI 研究科學(xué)家比爾?皮布爾斯 (Bill Peebles) 在 X 上曬圖,并表示“這是 Sora 一次性生成的視頻樣本,并不是我們把 5 個(gè)視頻拼接在一起。Sora 決定同時(shí)擁有五個(gè)不同的視角!”
令人驚嘆的是,這組圖片展示了人們?cè)谙卵┨炻?、玩雪的多個(gè)角度,并且均由 Sora 一次完成。這意味著該模型支持一次性生成多機(jī)位視頻,短視頻、電影行業(yè)或許會(huì)受到不小沖擊。
傳統(tǒng)視頻拍攝通常需要人工撰寫腳本再使用攝像機(jī)拍攝,通過多視角的剪輯,最終呈現(xiàn)出完整的視頻片段。然而,未來也許只需要輸入腳本信息,便可生成多角度多機(jī)位視頻,再加上人工的剪輯,便可呈現(xiàn)一部完整的作品。
據(jù)IT之家此前報(bào)道,Sora 會(huì)嚴(yán)格根據(jù)用戶輸入的提示詞,可以制作長達(dá)一分鐘的視頻,保持較高的視覺質(zhì)量。對(duì)于任何需要制作視頻的藝術(shù)家、電影制片人或?qū)W生來說,這都帶來了無限可能。
Sora 可以創(chuàng)建包含多人、特定運(yùn)動(dòng)類型和詳細(xì)背景的復(fù)雜場景。它能生成準(zhǔn)確反映用戶提示的視頻。例如,Sora 可以制作時(shí)尚女性走在霓虹閃爍的東京街頭的視頻、雪地里的巨型長毛象視頻,甚至是太空人冒險(xiǎn)的電影預(yù)告片。
目前,OpenAI 尚未向公眾開放 Sora。OpenAI 稱,該模型正在接受測試,只分享給了一批精選的研究人員和學(xué)者。
相關(guān)閱讀:
《OpenAI 王炸:新 Sora 模型一句話生成 1 分鐘視頻,效果接近實(shí)拍》
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。