0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Meta開源文本如何生成音樂(lè)大模型

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 2023-06-12 15:11 ? 次閱讀

年初,谷歌推出了音樂(lè)生成大模型 MusicLM,效果非常不錯(cuò)。有人稱這比大火的 ChatGPT 還重要,幾乎解決了音樂(lè)生成問(wèn)題。近日,Meta 也推出了自己的文本音樂(lè)生成模型 MusicGen,并且非商業(yè)用途免費(fèi)使用。

在進(jìn)入正文前,我們先聽兩段 MusicGen 生成的音樂(lè)。我們輸入文本描述「a man walks in the rain, come accross a beautiful girl, and they dance happily」 然后嘗試輸入周杰倫《七里香》歌詞中的前兩句「窗外的麻雀在電線桿上多嘴,你說(shuō)這一句 很有夏天的感覺」(支持中文) 試玩地址:https://huggingface.co/spaces/facebook/MusicGen 文本到音樂(lè)是指在給定文本描述的情況下生成音樂(lè)作品的任務(wù),例如「90 年代吉他即興搖滾歌曲」。作為一項(xiàng)具有挑戰(zhàn)性的任務(wù),生成音樂(lè)要對(duì)長(zhǎng)序列進(jìn)行建模。與語(yǔ)音不同,音樂(lè)需要使用全頻譜,這意味著以更高的速率對(duì)信號(hào)進(jìn)行采樣,即音樂(lè)錄音的標(biāo)準(zhǔn)采樣率為 44.1 kHz 或 48 kHz,而語(yǔ)音的采樣率為 16 kHz。

此外,音樂(lè)包含不同樂(lè)器的和聲和旋律,這使音樂(lè)有著復(fù)雜的結(jié)構(gòu)。但由于人類聽眾對(duì)不和諧十分敏感,因此對(duì)生成音樂(lè)的旋律不會(huì)有太大容錯(cuò)率。當(dāng)然,以多種方法控制生成過(guò)程的能力對(duì)音樂(lè)創(chuàng)作者來(lái)說(shuō)是必不可少的,如鍵、樂(lè)器、旋律、流派等。 最近自監(jiān)督音頻表示學(xué)習(xí)、序列建模和音頻合成方面的進(jìn)展,為開發(fā)此類模型提供了條件。為了使音頻建模更加容易,最近的研究提出將音頻信號(hào)表示為「表示同一信號(hào)」的離散 token 流。這使得高質(zhì)量的音頻生成和有效的音頻建模成為可能。然而這需要聯(lián)合建模幾個(gè)并行的依賴流。 Kharitonov 等人 [2022]、Kreuk 等人 [2022] 提出采用延遲方法并行建模語(yǔ)音 token 的多流,即在不同流之間引入偏移量。Agostinelli 等人 [2023] 提出使用不同粒度的多個(gè)離散標(biāo)記序列來(lái)表示音樂(lè)片段,并使用自回歸模型的層次結(jié)構(gòu)對(duì)其進(jìn)行建模。同時(shí),Donahue 等人 [2023] 采用了類似的方法,但針對(duì)的是演唱到伴奏生成的任務(wù)。最近,Wang 等人 [2023] 提出分兩個(gè)階段解決這個(gè)問(wèn)題:限制對(duì)第一個(gè) token 流建模。然后應(yīng)用 post-network 以非自回歸的方式聯(lián)合建模其余的流。

本文中,Meta AI 的研究者提出了 MUSICGEN,這是一種簡(jiǎn)單、可控的音樂(lè)生成模型,能在給定文本描述的情況下生成高質(zhì)量的音樂(lè)。 論文地址:https://arxiv.org/pdf/2306.05284.pdf 研究者提出一個(gè)對(duì)多個(gè)并行聲學(xué) token 流進(jìn)行建模的通用框架,作為以前研究的概括 (見下圖 1)。為提高生成樣本的可控性,本文還引入了無(wú)監(jiān)督旋律條件,使模型能夠根據(jù)給定和聲和旋律生成結(jié)構(gòu)匹配的音樂(lè)。本文對(duì) MUSICGEN 進(jìn)行了廣泛的評(píng)估,所提出的方法在很大程度上優(yōu)于評(píng)估基線:MUSICGEN 的主觀評(píng)分為 84.8 (滿分 100 分),而最佳基線為 80.5。此外,本文還提供一項(xiàng)消融研究,闡明了每個(gè)組件對(duì)整體模型性能的重要性。 最后,人工評(píng)估表明,MUSICGEN 產(chǎn)生了高質(zhì)量的樣本,這些樣本在符合文本描述,在旋律上也更好地與給定的和聲結(jié)構(gòu)對(duì)齊。 f2ee603a-08ea-11ee-962d-dac502259ad0.png ? 本文的主要貢獻(xiàn)有如下幾點(diǎn): ?

提出了一個(gè)簡(jiǎn)單高效的模型:可以在 32khz 產(chǎn)生高質(zhì)量的音樂(lè)。MUSICGEN 可以通過(guò)有效的碼本交錯(cuò)策略,用單階段語(yǔ)言模型生成一致的音樂(lè);

提出一個(gè)單一的模型,進(jìn)行文本和旋律條件生成,其生成的音頻與提供的旋律是一致的,并符合文本條件信息;

對(duì)所提出方法的關(guān)鍵設(shè)計(jì)選擇進(jìn)行了廣泛的客觀及人工評(píng)估。

方法概覽

MUSICGEN 包含一個(gè)基于自回歸 transformer 的解碼器,并以文本或旋律表示為條件。該(語(yǔ)言)模型基于 EnCodec 音頻 tokenizer 的量化單元,它從低幀離散表示中提供高保真重建效果。此外部署殘差向量量化(RVQ)的壓縮模型會(huì)產(chǎn)生多個(gè)并行流。在此設(shè)置下,每個(gè)流都由來(lái)自不同學(xué)得碼本的離散 token 組成。 以往的工作提出了一些建模策略來(lái)解決這一問(wèn)題。研究者提出了一種新穎的建??蚣?,它可以泛化到各種碼本交錯(cuò)模式。該框架還有幾種變體?;谀J?,他們可以充分利用量化音頻 token 的內(nèi)部結(jié)構(gòu)。最后 MUSICGEN 支持基于文本或旋律的條件生成。 音頻 tokenization 研究者使用了 EnCodec,它是一種卷積自編碼器,具有使用 RVQ 量化的潛在空間和對(duì)抗重建損失。給定一個(gè)參考音頻隨機(jī)變量 X ∈ R^d?f_s,其中 d 表示音頻持續(xù)時(shí)間,f_s 表示采樣率。EnCodec 將該變量編碼為幀率為 f_r ? f_s 的連續(xù)張量,然后該表示被量化為 Q ∈ {1, . . . , N}^K×d?f_r,其中 K 表示 RVQ 中使用的碼本數(shù)量,N 表示碼本大小。

碼本交錯(cuò)模式

精確扁平化自回歸分解。自回歸模型需要一個(gè)離散隨機(jī)序列 U ∈ {1, . . . , N}^S 和序列長(zhǎng)度 S。按照慣例,研究者將采用 U_0 = 0,這是一個(gè)確定性的特殊 token,表示序列的開始。然后他們可以對(duì)分布進(jìn)行建模。 不精確的自回歸分解。另一種可能是考慮自回歸分解,其中一些碼本需要進(jìn)行并行預(yù)測(cè)。比如定義另一個(gè)序列,V_0 = 0,并且 t∈ {1, . . . , N}, k ∈ {1, . . . , K}, V_t,k = Q_t,k。當(dāng)刪除碼本索引 k 時(shí)(如 V_t),這代表了時(shí)間為 t 時(shí)所有碼本的串聯(lián)。 任意碼本交錯(cuò)模式。為了試驗(yàn)此類分解,并準(zhǔn)確測(cè)量使用不精確分解的影響,研究者引入了碼本交錯(cuò)模式。首先考慮? = {(t, k) : {1, . . . , d?f_r}, k ∈ {1, . . . , K}},它是所有時(shí)間步和碼本索引對(duì)的集合。碼本模式是序列 P=(P_0, P_1, P_2, . . . , P_S),其中 P_0 = ?,,并且 0 < i ≤ S, P_i ? ?,這樣 P 是?的分區(qū)。研究者通過(guò)并行地預(yù)測(cè) P_t 中的所有位置來(lái)建模 Q,并以 P_0, P_1, . . . , P_T 中的所有位置為條件。同時(shí)考慮到實(shí)際效率,他們只選擇了「每個(gè)碼本在任何 P_s 中最多出現(xiàn)一次」的模式。 ?

模型條件化

文本條件化。給定與輸入音頻 X 匹配的文本描述,研究者計(jì)算條件張量 C ∈ R^T_C ×D,其中 D 是自回歸模型中使用的內(nèi)部維數(shù)。 旋律條件化。雖然文本是當(dāng)今條件生成模型的主要方法,但更自然的音樂(lè)方法是以來(lái)自另一個(gè)音軌甚至口哨或哼唱的旋律結(jié)構(gòu)為條件。這種方法還允許對(duì)模型輸出進(jìn)行迭代優(yōu)化。為了支持這一點(diǎn),研究者嘗試通過(guò)聯(lián)合調(diào)節(jié)輸入的色譜圖和文本描述來(lái)控制旋律結(jié)構(gòu)。再最初的試驗(yàn)中,他們觀察到以原始色譜圖為條件通常會(huì)重建原始樣本,導(dǎo)致過(guò)擬合。為此,研究者在每個(gè)時(shí)間步中選擇主要的時(shí)頻 bin 來(lái)引入信息瓶頸。

模型架構(gòu)

碼本投影和位置嵌入。給定一個(gè)碼本模式,在每個(gè)模式步 P_s 中只有一些碼本的存在。研究者從 Q 中檢索出對(duì)應(yīng) P_s 中索引的值。每個(gè)碼本在 P_s 中最多出現(xiàn)一次或根本不存在。 Transformer 解碼器。輸入被饋入到具有 L 層和 D 維的 transformer 中,每一層都由一個(gè)因果自注意力塊組成。然后使用一個(gè)跨注意力塊,該塊由條件化信號(hào) C 提供。當(dāng)使用旋律調(diào)節(jié)時(shí),研究者將條件化張量 C 作為 transformer 輸入的前綴。 Logits 預(yù)測(cè)。在模式步 P_s 中,transformer 解碼器的輸出被轉(zhuǎn)換為 Q 值的 Logits 預(yù)測(cè)。每個(gè)碼本在 P_s+1 中最多出現(xiàn)一次。如果碼本存在,則從 D 通道到 N 應(yīng)用特定于碼本的線性層來(lái)獲得 Logits 預(yù)測(cè)。

實(shí)驗(yàn)結(jié)果 音頻 tokenization 模型。研究對(duì) 32 kHz 單聲道音頻使用非因果五層 EnCodec 模型,其步幅為 640,幀率為 50 Hz,初始隱藏大小為 64,在模型的五層中每層都增加一倍。

變壓器模型,研究訓(xùn)練了不同大小的自回歸 Transformer 模型:300M, 1.5B, 3.3B 參數(shù)。

訓(xùn)練數(shù)據(jù)集。研究使用 2 萬(wàn)小時(shí)的授權(quán)音樂(lè)來(lái)訓(xùn)練 MUSICGEN。詳細(xì)來(lái)說(shuō),研究使用了一個(gè)包含 10K 個(gè)高質(zhì)量曲目的內(nèi)部數(shù)據(jù)集,以及分別包含 25K 和 365K 只有樂(lè)器曲目的 ShutterStock 和 Pond5 音樂(lè)數(shù)據(jù)集。


評(píng)估數(shù)據(jù)集。研究在 MusicCaps 基準(zhǔn)上對(duì)所提出的方法進(jìn)行了評(píng)估,并與之前的工作進(jìn)行了比較。MusicCaps 是由專家音樂(lè)家準(zhǔn)備的 5.5K 樣本 (10 秒長(zhǎng)) 和跨流派平衡的 1K 子集組成的。 下表 1 給出了所提方法與 Mousai、Riffusion、MusicLM 和 Noise2Music 的比較。結(jié)果表明,在音頻質(zhì)量和對(duì)提供的文本描述的一致性方面,MUSICGEN 的表現(xiàn)優(yōu)于人類聽眾的評(píng)估基線。Noise2Music 在 MusicCaps 上的 FAD 方面表現(xiàn)最好,其次是經(jīng)過(guò)文本條件訓(xùn)練的 MUSICGEN。有趣的是,添加旋律條件會(huì)降低客觀指標(biāo),但是并不會(huì)顯著影響人類評(píng)分,且仍然優(yōu)于評(píng)估的基線。 f326ecd4-08ea-11ee-962d-dac502259ad0.png ? 研究者在給出的評(píng)估集上使用客觀和主觀度量,在文本和旋律表示的共同條件下評(píng)估 MUSICGEN,結(jié)果見下表 2。結(jié)果表明,用色譜圖條件化訓(xùn)練的 MUSICGEN 成功地生成了遵循給定旋律的音樂(lè),從而可以更好地控制生成的輸出。MUSICGEN 對(duì)于在推理時(shí)使用 OVL 和 REL 丟掉色度具有魯棒性。 ? f33a1566-08ea-11ee-962d-dac502259ad0.png ? 碼本交錯(cuò)模式的影響。研究者使用 2.2 節(jié)中的框架評(píng)估了各種碼本模式,K = 4,由音頻 tokenization 模型給出。本文在下表 3 中報(bào)告了客觀和主觀評(píng)價(jià)。雖然扁平化改善了生成效果,但它的計(jì)算成本很高。使用簡(jiǎn)單的延遲方法,只需花費(fèi)一小部分成本就能得到類似的性能。 ? f35d8ac8-08ea-11ee-962d-dac502259ad0.png ? 模型大小的影響。下表 4 報(bào)告了不同模型大小的結(jié)果,即 300M、1.5B 和 3.3B 參數(shù)模型。正如預(yù)期的那樣,擴(kuò)大模型大小可以得到更好的分?jǐn)?shù),但前提是需要更長(zhǎng)的訓(xùn)練和推理時(shí)間。主觀評(píng)價(jià)方面,在 1.5B 時(shí)整體質(zhì)量是最優(yōu)的,但更大的模型可以更好地理解文本提示。 ? f3698760-08ea-11ee-962d-dac502259ad0.png
責(zé)任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 建模
    +關(guān)注

    關(guān)注

    1

    文章

    298

    瀏覽量

    60695
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3181

    瀏覽量

    42235
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3056

    瀏覽量

    48570
  • Meta
    +關(guān)注

    關(guān)注

    0

    文章

    249

    瀏覽量

    11302

原文標(biāo)題:Meta開源文本生成音樂(lè)大模型,我們用《七里香》歌詞試了下

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于擴(kuò)散模型的圖像生成過(guò)程

    近年來(lái),擴(kuò)散模型文本到圖像生成方面取得了巨大的成功,實(shí)現(xiàn)了更高圖像生成質(zhì)量,提高了推理性能,也可以激發(fā)擴(kuò)展創(chuàng)作靈感。 不過(guò)僅憑文本來(lái)控制圖
    的頭像 發(fā)表于 07-17 11:00 ?2559次閱讀
    基于擴(kuò)散<b class='flag-5'>模型</b>的圖像<b class='flag-5'>生成</b>過(guò)程

    基于生成式對(duì)抗網(wǎng)絡(luò)的深度文本生成模型

    評(píng)論,對(duì)音樂(lè)作品自動(dòng)生成評(píng)論可以在一定程度上解決此問(wèn)題。在在線唱歌平臺(tái)上的評(píng)論文本音樂(lè)作品的表現(xiàn)評(píng)級(jí)存在一定的關(guān)系。因此,研究考慮音樂(lè)作品
    發(fā)表于 04-12 13:47 ?15次下載
    基于<b class='flag-5'>生成</b>式對(duì)抗網(wǎng)絡(luò)的深度<b class='flag-5'>文本生成</b><b class='flag-5'>模型</b>

    受控文本生成模型的一般架構(gòu)及故事生成任務(wù)等方面的具體應(yīng)用

    來(lái)自:哈工大訊飛聯(lián)合實(shí)驗(yàn)室 本期導(dǎo)讀:本文是對(duì)受控文本生成任務(wù)的一個(gè)簡(jiǎn)單的介紹。首先,本文介紹了受控文本生成模型的一般架構(gòu),點(diǎn)明了受控文本生成模型
    的頭像 發(fā)表于 10-13 09:46 ?3401次閱讀
    受控<b class='flag-5'>文本生成</b><b class='flag-5'>模型</b>的一般架構(gòu)及故事<b class='flag-5'>生成</b>任務(wù)等方面的具體應(yīng)用

    ELMER: 高效強(qiáng)大的非自回歸預(yù)訓(xùn)練文本生成模型

    每個(gè)單詞都依賴于輸入文本與之前生成的單詞。自回歸生成模型只建模了前向的單詞依賴關(guān)系,依次生成的結(jié)構(gòu)也使得自回歸
    的頭像 發(fā)表于 03-13 10:39 ?1277次閱讀

    基于文本到圖像模型的可控文本到視頻生成

    文本到視頻模型需要大量高質(zhì)量的視頻和計(jì)算資源,這限制了相關(guān)社區(qū)進(jìn)一步的研究和應(yīng)用。為了減少過(guò)度的訓(xùn)練要求,我們研究了一種新的高效形式:基于文本到圖像模型的可控
    的頭像 發(fā)表于 06-14 10:39 ?866次閱讀
    基于<b class='flag-5'>文本</b>到圖像<b class='flag-5'>模型</b>的可控<b class='flag-5'>文本</b>到視頻<b class='flag-5'>生成</b>

    Meta開源I-JEPA,“類人”AI模型

    Meta 宣布推出一個(gè)全新的 AI 模型 Image Joint Embedding Predictive Architecture (I-JEPA),可通過(guò)對(duì)圖像的自我監(jiān)督學(xué)習(xí)來(lái)學(xué)習(xí)世界的抽象表征
    的頭像 發(fā)表于 06-18 17:47 ?1018次閱讀
    <b class='flag-5'>Meta</b><b class='flag-5'>開源</b>I-JEPA,“類人”AI<b class='flag-5'>模型</b>

    語(yǔ)音領(lǐng)域的GPT時(shí)刻:Meta 發(fā)布「突破性」生成式語(yǔ)音系統(tǒng),一個(gè)通用模型解決多項(xiàng)任務(wù)

    開源 LLaMA 之后,Meta生成式 AI 方向又公布一項(xiàng)重大研究。 我們知道,GPT、DALL-E 等大規(guī)模生成模型徹底改變了自然
    的頭像 發(fā)表于 06-18 21:30 ?598次閱讀
    語(yǔ)音領(lǐng)域的GPT時(shí)刻:<b class='flag-5'>Meta</b> 發(fā)布「突破性」<b class='flag-5'>生成</b>式語(yǔ)音系統(tǒng),一個(gè)通用<b class='flag-5'>模型</b>解決多項(xiàng)任務(wù)

    Meta發(fā)布一款可以使用文本提示生成代碼的大型語(yǔ)言模型Code Llama

    今天,Meta發(fā)布了Code Llama,一款可以使用文本提示生成代碼的大型語(yǔ)言模型(LLM)。
    的頭像 發(fā)表于 08-25 09:06 ?1338次閱讀
    <b class='flag-5'>Meta</b>發(fā)布一款可以使用<b class='flag-5'>文本</b>提示<b class='flag-5'>生成</b>代碼的大型語(yǔ)言<b class='flag-5'>模型</b>Code Llama

    Meta推出最新版AI代碼生成模型Code Llama70B

    Meta近日宣布了其最新版本的AI代碼生成模型Code Llama70B,并稱其為“目前最大、最優(yōu)秀的模型”。這一更新標(biāo)志著Meta在AI代
    的頭像 發(fā)表于 01-30 18:21 ?1305次閱讀

    Meta發(fā)布開源模型Code Llama 70B

    近日,Meta宣布推出了一款新的開源模型Code Llama 70B,這是其“Code Llama家族中體量最大、性能最好的模型版本”。這款新模型
    的頭像 發(fā)表于 01-31 09:24 ?807次閱讀

    Meta發(fā)布CodeLlama70B開源模型

    Meta發(fā)布CodeLlama70B開源模型 Meta發(fā)布了開源模型CodeLlama70B
    的頭像 發(fā)表于 01-31 10:30 ?1310次閱讀

    Meta推出最強(qiáng)開源模型Llama 3 要挑戰(zhàn)GPT

    Meta推出最強(qiáng)開源模型Llama 3 要挑戰(zhàn)GPT Facebook母公司Meta Platforms(META.US)推出了
    的頭像 發(fā)表于 04-19 17:00 ?749次閱讀

    Meta Llama 3基礎(chǔ)模型現(xiàn)已在亞馬遜云科技正式可用

    亞馬遜云科技近日宣布,Meta公司最新發(fā)布的兩款Llama 3基礎(chǔ)模型——Llama 3 8B和Llama 3 70B,現(xiàn)已正式上線并集成至Amazon SageMaker JumpStart平臺(tái)。這兩款先進(jìn)的生成文本
    的頭像 發(fā)表于 05-09 10:39 ?318次閱讀

    Meta即將發(fā)布超強(qiáng)開源AI模型Llama 3-405B

    在人工智能領(lǐng)域的激烈競(jìng)爭(zhēng)中,Meta公司再次擲出重磅炸彈,宣布將于7月23日正式發(fā)布其最新力作——Llama 3-405B,一個(gè)擁有驚人4050億參數(shù)的開源模型。這一舉措不僅標(biāo)志著Meta
    的頭像 發(fā)表于 07-18 09:58 ?885次閱讀

    Meta發(fā)布全新開源模型Llama 3.1

    科技巨頭Meta近期震撼發(fā)布了其最新的開源人工智能(AI)模型——Llama 3.1,這一舉措標(biāo)志著Meta在AI領(lǐng)域的又一重大突破。Meta
    的頭像 發(fā)表于 07-24 18:25 ?1342次閱讀