IT之家 7 月 26 日消息,谷歌近日發(fā)布了名為 Brain2Music 的論文,可以利用人工智能讀取、分析你的功能性磁共振成像(fMRI)數(shù)據(jù),然后再基于你的大腦活動(dòng)自動(dòng)生成音樂。
研究人員招募了 5 名志愿者,先讓其聽藍(lán)調(diào),古典,鄉(xiāng)村,迪斯科,嘻哈,爵士樂,金屬,流行,雷鬼和搖滾等不同音樂類型的 15 秒音樂片段,然后記錄志愿者的 fMRI 數(shù)據(jù)。
谷歌使用這些數(shù)據(jù)訓(xùn)練出一個(gè)深度神經(jīng)網(wǎng)絡(luò),以了解大腦活動(dòng)模式與音樂節(jié)奏和情感等不同元素之間的關(guān)系。
Brain2Music 基于谷歌此前推出的 MusicLM 模型(基于文本生成音樂片段),基于 fMRI 生成 15 秒音樂片段。
研究結(jié)果顯示 Brain2Music 生成的 15 秒音樂片段,其中一段內(nèi)容“Oops!...I Did It Again”和測試聽到的原版音樂基本相同。
IT之家在此附上論文 PDF 下載鏈接,感興趣的用戶可以深入閱讀。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。