IT之家 2 月 22 日消息,OpenAI 近日發(fā)布了文本生成視頻模型 Sora,根據(jù)基于用戶提供的提示詞,生成逼真的視頻。不過根據(jù)網(wǎng)友反饋,Sora 生成 1 分鐘視頻的時(shí)間,需要渲染超過 1 個(gè)小時(shí)。
根據(jù) Reddit 社區(qū)上網(wǎng)友的反饋,研究人員主要展示了預(yù)先選擇的示例,不允許公眾訪問自定義提示詞,最長的演示視頻只有 17 秒,IT之家附上截圖如下:
還有人猜測渲染時(shí)間過長背后的潛在原因,其中一位用戶提到了 OpenAI 首席執(zhí)行官山姆-阿爾特曼(Sam Altman)關(guān)于大量資金需求的評(píng)論:
一位用戶表示:“制作 90 分鐘的電影,拍攝時(shí)通常需要超過 90 小時(shí)。如果你計(jì)算一下所有典型的動(dòng)畫制作工時(shí),Sora 的渲染時(shí)間也不是很瘋狂了”。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。