IT之家 8 月 3 日消息,美國東部時間 8 月 2 日,Meta 開源了一款生成式 AI 工具 AudioCraft,可幫助用戶通過文本提示創(chuàng)作音樂和音頻。
根據(jù) Meta 官方介紹,AudioCraft 包含了三個核心組件:
MusicGen:使用 Meta 擁有 / 特別授權(quán)的音樂進行訓(xùn)練,根據(jù)文本提示生成音樂。
AudioGen:使用公共音效進行訓(xùn)練生成音頻或擴展現(xiàn)有音頻,后續(xù)還可生成環(huán)境音效(如狗叫、汽車鳴笛、木地板上的腳步聲)。
EnCodec(改進版):基于神經(jīng)網(wǎng)絡(luò)的音頻壓縮解碼器,可生成更高質(zhì)量的音樂并減少人工痕跡,或?qū)σ纛l文件進行無損壓縮。
該工具經(jīng)過開源之后,相關(guān)研究人員和從業(yè)人員可以使用自己的數(shù)據(jù)集訓(xùn)練模型。官方宣稱 AudioCraft 系列模型能夠長期穩(wěn)定地生成高質(zhì)量音頻,而且易于使用,能夠為音樂家和聲音設(shè)計師“提供靈感”,幫助他們快速集思廣益,并“以新的方式迭代他們的作品”。
另據(jù)IT之家此前報道,今年 6 月份 Meta 開源了 AI 語言模型 MusicGen,該模型基于谷歌 2017 年推出的 Transformer 模型。如同模型名稱所示,MusicGen 主要用于音樂生成,它可以將文本和已有的旋律轉(zhuǎn)化為完整樂曲。
演示視頻:
AudioCraft 項目地址:點此前往
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。