0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹幾篇EMNLP'22的語言模型訓(xùn)練方法優(yōu)化工作

深度學(xué)習(xí)自然語言處理 ? 來源:圓圓的算法筆記 ? 2022-12-22 16:14 ? 次閱讀

來自:圓圓的算法筆記

今天給大家介紹3篇EMNLP 2022中語言模型訓(xùn)練方法優(yōu)化的工作,這3篇工作分別是:

針對檢索優(yōu)化語言模型:優(yōu)化語言模型訓(xùn)練過程,使能夠生成更合適的句子表示用于檢索——RetroMAE: Pre-training Retrieval-oriented Transformers via Masked Auto-Encoder;

針對事實知識提取優(yōu)化語言模型:在語言模型訓(xùn)練過程中引入知識庫,提升語言模型對事實知識的抽取能力——Pre-training Language Models with Deterministic Factual Knowledge;

針對目標域效果優(yōu)化語言模型:將語言模型在目標domain繼續(xù)訓(xùn)練,在不遺忘原始知識的情況下學(xué)到目標doman新知識——Continual Training of Language Models for Few-Shot Learning。

后臺回復(fù)【語言模型】,可以獲取14種深度學(xué)習(xí)語言模型的梳理資料。

1 針對檢索優(yōu)化語言模型

在query-document檢索任務(wù)中,核心是獲取到query和document的句子表征,然后利用向量檢索的方式完成檢索任務(wù)。BERT已經(jīng)成為提取句子表示向量的主流方法。然而,BERT在預(yù)訓(xùn)練階段的主要任務(wù)是MLM,缺少對句子整體表示提取的優(yōu)化目標,導(dǎo)致句子表示提取能力不足。

RetroMAE: Pre-Training Retrieval-oriented Language Models Via Masked Auto-Encoder這篇文章對BERT的訓(xùn)練方式進行了優(yōu)化,使得BERT能提取更高質(zhì)量的句子表示,進而提升檢索效果。RetroMAE的整體結(jié)構(gòu)如下圖所示,包括一個Encoder和一個Decoder。對于每一個樣本,Encoder的輸入隨機mask掉15%的token,和原始BERT類似,利用Encoder得到整體的句子表示。在Decoder側(cè),輸入Encoder的句子表示,以及mask掉70%的token的樣本,讓Decoder還原整個句子。Encoder是一個比較復(fù)雜的BERT模型,Decoder則使用一個比較簡單的單層Transformer模型。

本文的模型設(shè)計思路是,Decoder提供的信息盡可能少、模型的復(fù)雜度盡可能低,這樣可以迫使Encoder生成的句子表示包含更完整的句子信息,保障了Encoder生成的句子embedding的質(zhì)量。相比對比學(xué)習(xí)學(xué)習(xí)句子表示的方法,RetroMAE的優(yōu)勢是效果不依賴于數(shù)據(jù)增強方法和正負樣本構(gòu)造方法的選擇。

8baaea7a-7f73-11ed-8abf-dac502259ad0.png

2 針對事實知識提取優(yōu)化語言模型

隨著prompt的興起,預(yù)訓(xùn)練語言模型經(jīng)常被用于進行知識抽取。構(gòu)造一個prompt模板,以完形填空的形式讓模型預(yù)測空缺位置的token,實現(xiàn)知識抽取。然而,預(yù)訓(xùn)練語言模型的抽取結(jié)果有時會很大程度上受到prompt選擇的影響,如下表所示,魯棒性較差。一個核心原因是,在訓(xùn)練語言模型的過程中,有些被mask掉的部分并不一定只有唯一一個正確答案。當(dāng)被mask部分存在多個正確答案,而模型在訓(xùn)練過程中被要求只預(yù)測一個正確答案時,就會導(dǎo)致其他本來正確的答案被強行設(shè)置成為負樣本,進而影響了模型效果。

8bc2b222-7f73-11ed-8abf-dac502259ad0.png

Pre-training Language Models with Deterministic Factual Knowledge針對這個問題,提出了在構(gòu)造預(yù)訓(xùn)練樣本時,引入知識庫對數(shù)據(jù)進行過濾。核心是在KG中查找知識信息,看樣本中被mask掉的實體是否這段文本的描述中唯一確定的正確答案。如果是,那么這個樣本不會給語言模型帶來歧義,正常參與訓(xùn)練;否則就是一個多答案樣本,從訓(xùn)練數(shù)據(jù)中去除掉。通過這種數(shù)據(jù)過濾的方式,讓模型在訓(xùn)練階段見到的預(yù)測任務(wù)都是只有一個確定答案的,解決了多答案mask token預(yù)測的影響。

8bd673d4-7f73-11ed-8abf-dac502259ad0.png

為了進一步提升模型能力,文中提出了Clue Contrastive Learning和Clue Classification兩個任務(wù)。Clue Contrastive Learning的目標是讓模型具備一種能力:當(dāng)上下文指向的答案是確定性的時候,就預(yù)測一個更有信心一些。通過構(gòu)造確定性樣本和非確定性樣本,以這對樣本的對比關(guān)系進行學(xué)習(xí)。Clue Classification讓語言模型知道上下文信息中存在什么樣的線索。通過保留決定性線索、刪除決定性線索、刪除其他非決定性線性構(gòu)造三種樣本用于分類。

3 針對目標域效果優(yōu)化語言模型

在使用預(yù)訓(xùn)練語言模型解決下游NLP任務(wù)時,如果目標任務(wù)的有l(wèi)abel數(shù)據(jù)較少,一種能提升效果的方法是先將語言模型在目標任務(wù)domain上無監(jiān)督語料上繼續(xù)訓(xùn)練,讓語言模型適應(yīng)目標任務(wù)的文本分布。在面對下游各類、持續(xù)增加的任務(wù)時,我們需要不斷的使用新任務(wù)domain的語言訓(xùn)練語言模型。這樣做的風(fēng)險可能會破壞原來語言模型學(xué)到的知識,導(dǎo)致信息遺忘等問題,帶來老任務(wù)上效果的下降。

Continual Training of Language Models for Few-Shot Learning提出了一種語言模型連續(xù)學(xué)習(xí)的方法解決上述問題。核心思路是借鑒了Adapter,在語言模型中插入多個CL組件(全連接層),模型在目標domain語言上繼續(xù)學(xué)習(xí)的過程中,只更新這些CL組件,原始的語言模型保持參數(shù)不變。在具體任務(wù)上finetune時,語言模型和CL組件一起更新。

8be67842-7f73-11ed-8abf-dac502259ad0.png

這里面的一個關(guān)鍵模塊是使用task id生成CL組件中的mask,每個任務(wù)的mask代表了哪些神經(jīng)元對于當(dāng)前任務(wù)最重要,這些神經(jīng)元會在后續(xù)新任務(wù)的訓(xùn)練中被mask掉,不進行梯度更新,防止新任務(wù)對老任務(wù)已經(jīng)學(xué)到的信息造成影響。每次訓(xùn)練一個新任務(wù)時,會把老任務(wù)的mask匯總起來控制住不更新的神經(jīng)元,并且對新的task也學(xué)習(xí)一套mask。

4 總結(jié)

本文主要介紹了3篇EMNLP 2022中和語言模型優(yōu)化相關(guān)的工作,涉及檢索、知識提取、持續(xù)學(xué)習(xí)等方面。語言模型在很多場景有各種各樣的應(yīng)用,學(xué)術(shù)界對于語言模型的優(yōu)化方向,逐漸從原來的大規(guī)模預(yù)訓(xùn)練方式、模型結(jié)構(gòu)優(yōu)化,轉(zhuǎn)向到細領(lǐng)域的針對性優(yōu)化。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4575

    瀏覽量

    92335
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    482

    瀏覽量

    21969

原文標題:介紹幾篇EMNLP'22的語言模型訓(xùn)練方法優(yōu)化工作

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    復(fù)用和優(yōu)化效果。這些趨勢共同推動了大語言模型在深度學(xué)習(xí)研究和應(yīng)用中的重要地位。數(shù)據(jù)效應(yīng)指出大型模型需要更多數(shù)據(jù)進行訓(xùn)練,以提高性能。其次,表
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實踐】大語言模型的基礎(chǔ)技術(shù)

    全面剖析大語言模型的核心技術(shù)與基礎(chǔ)知識。首先,概述自然語言的基本表示,這是理解大語言模型技術(shù)的前提。接著,詳細
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實踐】大語言模型的預(yù)訓(xùn)練

    語言模型的核心特點在于其龐大的參數(shù)量,這賦予了模型強大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對預(yù)訓(xùn)練數(shù)據(jù)的需求也相
    發(fā)表于 05-07 17:10

    Pytorch模型訓(xùn)練實用PDF教程【中文】

    本教程以實際應(yīng)用、工程開發(fā)為目的,著重介紹模型訓(xùn)練過程中遇到的實際問題和方法。在機器學(xué)習(xí)模型開發(fā)中,主要涉及三大部分,分別是數(shù)據(jù)、
    發(fā)表于 12-21 09:18

    優(yōu)化神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有哪些?

    優(yōu)化神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有哪些?
    發(fā)表于 09-06 09:52

    基于粒子群優(yōu)化的條件概率神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法

    訓(xùn)練方法。我們將這種基于粒子群優(yōu)化的條件概率神經(jīng)網(wǎng)絡(luò)用于人臉年齡估計,實驗結(jié)果表明這種網(wǎng)絡(luò)能夠顯著地提高識別的準確率。
    發(fā)表于 01-08 16:35 ?0次下載

    微軟在ICML 2019上提出了一個全新的通用預(yù)訓(xùn)練方法MASS

    專門針對序列到序列的自然語言生成任務(wù),微軟亞洲研究院提出了新的預(yù)訓(xùn)練方法:屏蔽序列到序列預(yù)訓(xùn)練(MASS: Masked Sequence to Sequence Pre-training
    的頭像 發(fā)表于 05-11 09:19 ?3421次閱讀
    微軟在ICML 2019上提出了一個全新的通用預(yù)<b class='flag-5'>訓(xùn)練方法</b>MASS

    新的預(yù)訓(xùn)練方法——MASS!MASS預(yù)訓(xùn)練幾大優(yōu)勢!

    專門針對序列到序列的自然語言生成任務(wù),微軟亞洲研究院提出了新的預(yù)訓(xùn)練方法:屏蔽序列到序列預(yù)訓(xùn)練(MASS: Masked Sequence to Sequence Pre-training)。MASS對句子隨機屏蔽一個長度為k的
    的頭像 發(fā)表于 05-11 09:34 ?7023次閱讀
    新的預(yù)<b class='flag-5'>訓(xùn)練方法</b>——MASS!MASS預(yù)<b class='flag-5'>訓(xùn)練</b>幾大優(yōu)勢!

    關(guān)于語言模型和對抗訓(xùn)練工作

    訓(xùn)練方法不僅能夠在BERT上有提高,而且在RoBERTa這種已經(jīng)預(yù)訓(xùn)練好的模型上也能有所提高,說明對抗訓(xùn)練的確可以幫助模型糾正易錯點。
    的頭像 發(fā)表于 11-02 15:26 ?2037次閱讀
    關(guān)于<b class='flag-5'>語言</b><b class='flag-5'>模型</b>和對抗<b class='flag-5'>訓(xùn)練</b>的<b class='flag-5'>工作</b>

    一種側(cè)重于學(xué)習(xí)情感特征的預(yù)訓(xùn)練方法

    在大規(guī)模無監(jiān)督語料上預(yù)訓(xùn)練語言模型正逐漸受到自然語言處理領(lǐng)琙硏究者的關(guān)注?,F(xiàn)有模型在預(yù)訓(xùn)練階段
    發(fā)表于 04-13 11:40 ?4次下載
    一種側(cè)重于學(xué)習(xí)情感特征的預(yù)<b class='flag-5'>訓(xùn)練方法</b>

    現(xiàn)代交互技術(shù)下的兒童語言表達訓(xùn)練方法

    現(xiàn)代交互技術(shù)下的兒童語言表達訓(xùn)練方法
    發(fā)表于 06-27 11:27 ?3次下載

    Multilingual多語言預(yù)訓(xùn)練語言模型的套路

    Facebook在Crosslingual language model pretraining(NIPS 2019)一文中提出XLM預(yù)訓(xùn)練語言模型,整體思路基于BERT,并提出了針對多語言
    的頭像 發(fā)表于 05-05 15:23 ?2883次閱讀

    訓(xùn)練語言模型帶來的硬件挑戰(zhàn)

    生成式AI和大語言模型(LLM)正在以難以置信的方式吸引全世界的目光,本文簡要介紹了大語言模型訓(xùn)練
    的頭像 發(fā)表于 09-01 17:14 ?1454次閱讀
    <b class='flag-5'>訓(xùn)練</b>大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>帶來的硬件挑戰(zhàn)

    混合專家模型 (MoE)核心組件和訓(xùn)練方法介紹

    ) 的 Transformer 模型在開源人工智能社區(qū)引起了廣泛關(guān)注。在本篇博文中,我們將深入探討 MoEs 的核心組件、訓(xùn)練方法,以及在推理過程中需要考量的各種因素。 讓我們開始吧! 簡短總結(jié) 混合專家模型 (MoEs
    的頭像 發(fā)表于 01-13 09:37 ?1110次閱讀
    混合專家<b class='flag-5'>模型</b> (MoE)核心組件和<b class='flag-5'>訓(xùn)練方法</b><b class='flag-5'>介紹</b>

    ai大模型訓(xùn)練方法有哪些?

    AI大模型訓(xùn)練方法是一個復(fù)雜且不斷發(fā)展的領(lǐng)域。以下是ai大模型訓(xùn)練方法: 數(shù)據(jù)預(yù)處理和增強 數(shù)據(jù)清洗:去除噪聲和不完整的數(shù)據(jù)。 數(shù)據(jù)標準化:將數(shù)據(jù)縮放到統(tǒng)一的范圍。 數(shù)據(jù)增強:通過旋轉(zhuǎn)
    的頭像 發(fā)表于 07-16 10:11 ?1118次閱讀