(取自Meta臉書粉專)
根據 《IT之家》消息,Meta 近日在 GitHub 上開源了其 AI 語言模型 MusicGen,該模型基於Google 2017 年推出的 Transformer 模型。
如同模型名稱所示,MusicGen 主要用於音樂生成,它可以將文本和已有的旋律轉化為完整樂曲。
除此之外,MusicGen 還支持文本與旋律的組合輸入,例如你可以提出生成「一首輕快的曲目」並同時要求「將它與貝多芬的《快樂頌》結合起來」。
根據研發團隊對 MusicGen 的實際表現進行的測試,與Google的 MusicLM 以及 Riffusion、Mousai、Noise2 Music 等其他音樂模型相比,MusicGen 在測試音樂與文本提示的匹配度以及作曲的可信度等指標上表現更好,總體而言略高於Google MusicLM 的水準。
目前,Meta 已允許該模型的商業使用,並在 Huggingface 上發表了一個供演示用的網頁應用。
本文為巴比特授權刊登,原文標題為「Meta 開源 AI 語言模型 MusicGen,可將文本和旋律轉化為完整樂曲」