0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是XLNet,它為什么比BERT效果好

電子設(shè)計(jì) ? 來源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-10 19:10 ? 次閱讀
介紹最基本的XLNet的原理,理解XLNet和BERT的直覺上的不同點(diǎn)。
作者:Xu LIANG
編譯:ronghuaiyang
首發(fā):AI公園公眾號


在發(fā)布后不到一周,我周圍的NLP領(lǐng)域的每個人似乎都在談?wù)?strong>XLNet。

是的,“在20個任務(wù)上比BERT做得更好”確實(shí)吸引了我們的眼球。但更重要的是理解它是如何工作的,以及為什么它比BERT表現(xiàn)得更好。所以我寫了這個博客來分享我讀了這篇文章后的想法。

內(nèi)容結(jié)構(gòu)如下。

  • 什么是XLNet?
  • XLNet和BERT有什么不同?
  • XLNet是如何工作的?

什么是XLNet?

首先,XLNet是一個類似于bert的模型,而不是一個完全不同的模型。但它是一個非常有前途和潛力的。總之,XLNet是一種廣義的自回歸預(yù)訓(xùn)練方法。

那么,什么是自回歸(AR)語言模型?

AR語言模型是利用上下文單詞預(yù)測下一個單詞的一種模型。但是在這里,上下文單詞被限制在兩個方向,要么向前,要么向后。

GPT和GPT-2都是AR語言模型。

AR語言模型的優(yōu)點(diǎn)是擅長NLP生成任務(wù)。因?yàn)樵谏缮舷挛臅r,通常是正向的。AR語言模型在這類NLP任務(wù)中很自然地工作得很好。

但是AR語言模型有一些缺點(diǎn),它只能使用前向上下文或后向上下文,這意味著它不能同時使用前向上下文和后向上下文。

XLNet和BERT的區(qū)別是什么?

與AR語言模型不同,BERT被歸類為自動編碼器(AE)語言模型。

AE語言模型的目的是從損壞的輸入中重建原始數(shù)據(jù)。

損壞的輸入意味著我們使用在訓(xùn)練前階段將原始tokeninto替換為 [MASK] 。我們的目標(biāo)是預(yù)測into來得到原來的句子。

AE語言模型的優(yōu)點(diǎn)是它可以在向前和向后兩個方向上看到上下文。

但是AE語言模型也有其不足之處。它在預(yù)訓(xùn)練中使用了[MASK],但是這種人為的符號在finetune的時候在實(shí)際數(shù)據(jù)中時沒有的,導(dǎo)致了預(yù)訓(xùn)練 — finetune的不一致。[MASK]的另一個缺點(diǎn)是它假設(shè)所預(yù)測的(mask掉的)token是相互獨(dú)立的,給出的是未掩碼的tokens。例如,我們有一句話“It shows that the housing crisis was turned into a banking crisis”。我們蓋住了“banking”和“crisis”。注意這里,我們知道,蓋住的“banking”與“crisis”之間隱含著相互關(guān)聯(lián)。但AE模型是利用那些沒有蓋住的tokens試圖預(yù)測“banking”,并獨(dú)立利用那些沒有蓋住的tokens預(yù)測“crisis”。它忽視了“banking”與“crisis”之間的關(guān)系。換句話說,它假設(shè)預(yù)測的(屏蔽的)tokens是相互獨(dú)立的。但是我們知道模型應(yīng)該學(xué)習(xí)(屏蔽的)tokens之間的這種相關(guān)性來預(yù)測其中的一個token。

作者想要強(qiáng)調(diào)的是,XLNet提出了一種新的方法,讓AR語言模型從雙向的上下文中學(xué)習(xí),避免了AE語言模型中mask方法帶來的弊端。

XLNet如何工作?

AR語言模型只能使用前向或后向的上下文,如何讓它學(xué)習(xí)雙向上下文呢?語言模型由預(yù)訓(xùn)練階段和調(diào)優(yōu)階段兩個階段組成。XLNet專注于預(yù)訓(xùn)練階段。在預(yù)訓(xùn)練階段,它提出了一個新的目標(biāo),稱為重排列語言建模。 我們可以從這個名字知道基本的思想,它使用重排列。

這里我們用一個例子來解釋。序列順序是[x1, x2, x3, x4]。該序列的所有排列如下。

對于這4個tokens (N)的句子,有24個(N!)個排列。假設(shè)我們想要預(yù)測x3。24個排列中有4種模式,x3在第1位,第2位,第3位,第4位。

[x3, xx, xx, xx]
[xx, x3, xx, xx]
[xx, xx, x3, xx]
[xx, xx, xx, x3]


4種模式

在這里,我們將x3的位置設(shè)為第t位,它前面的t-1個tokens用來預(yù)測x3。

x3之前的單詞包含序列中所有可能的單詞和長度。直觀地,模型將學(xué)習(xí)從兩邊的所有位置收集信息

具體實(shí)現(xiàn)要比上面的解釋復(fù)雜得多,這里就不討論了。但是你應(yīng)該對XLNet有最基本和最重要的了解。

來自XLNet的靈感

與BERT將mask方法公布于眾一樣,XLNet表明重排列法是一種很好的語言模型目標(biāo)選擇??梢灶A(yù)見,未來在語言模型目標(biāo)方面的探索工作將會越來越多。

—END—

關(guān)注圖像處理,自然語言處理,機(jī)器學(xué)習(xí)人工智能領(lǐng)域。
歡迎關(guān)注微信公眾號

審核編輯 黃昊宇
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46348

    瀏覽量

    236517
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    491

    瀏覽量

    10226
收藏 人收藏

    評論

    相關(guān)推薦

    內(nèi)置誤碼率測試儀(BERT)和采樣示波器一體化測試儀器安立MP2110A

    BERTWave MP2110A是一款內(nèi)置誤碼率測試儀(BERT)和采用示波器的一體化測量儀器,支持光模塊的誤碼率(BERT)測量、眼圖模式測試、眼圖分析等評估操作
    的頭像 發(fā)表于 09-23 14:34 ?133次閱讀
    內(nèi)置誤碼率測試儀(<b class='flag-5'>BERT</b>)和采樣示波器一體化測試儀器安立MP2110A

    數(shù)字地和模擬地利用磁珠隔離或者單點(diǎn)接地效果都不怎么,怎樣隔離效果會比較好一些?

    數(shù)字地和模擬地利用磁珠隔離或者單點(diǎn)接地效果都不怎么,怎樣隔離效果會比較好一些?
    發(fā)表于 09-20 06:23

    請問光電二極管用正電源反偏效果,還是用負(fù)電源反偏效果

    請問光電二極管用正電源反偏效果,還是用負(fù)電源反偏效果
    發(fā)表于 09-11 07:07

    M8020A J-BERT 高性能比特誤碼率測試儀

    M8020A 比特誤碼率測試儀 J-BERT M8020A 高性能 BERT 產(chǎn)品綜述 Keysight J-BERT M8020A 高性能比特誤碼率測試儀能夠快速、準(zhǔn)確地表征傳輸速率高達(dá) 16 或
    的頭像 發(fā)表于 08-21 17:13 ?131次閱讀

    AWG和BERT常見問題解答

    隨著信號的速率越來越高,調(diào)制格式越來越復(fù)雜,對測試儀器的性能要求也越來越高。是德科技也一直在推出業(yè)界領(lǐng)先的高帶寬、高采樣率的AWG和高性能的BERT。
    的頭像 發(fā)表于 08-06 17:27 ?403次閱讀

    EMC與EMI測試整改:從問題識別到效果驗(yàn)證

    深圳創(chuàng)達(dá)電子|EMC與EMI測試整改:從問題識別到效果驗(yàn)證
    的頭像 發(fā)表于 06-27 10:37 ?352次閱讀
    EMC與EMI測試整改:從問題識別到<b class='flag-5'>效果</b>驗(yàn)證

    什么是邊緣計(jì)算?它為何如此重要?

    ,什么是邊緣計(jì)算?它為何如此重要?本文將對其進(jìn)行詳細(xì)的解析。 邊緣計(jì)算,簡而言之,是指在靠近物或數(shù)據(jù)源頭的一側(cè),采用網(wǎng)絡(luò)、計(jì)算、存儲、應(yīng)用核心能力為一體的開放平臺,就近提供最近端服務(wù)。它的核心思想是將計(jì)算任
    的頭像 發(fā)表于 04-22 15:25 ?346次閱讀

    網(wǎng)線扁線和圓線哪個效果

    一起難以分離。此外,扁線網(wǎng)線可以像圓線那樣附加屏蔽層,具備較好的抗干擾能力。在短距離應(yīng)用上,扁線網(wǎng)線的傳輸效果和圓線網(wǎng)線差別不大。但是,扁線網(wǎng)線的價格圓線網(wǎng)線高出約50%,柔軟性使其更適合在家庭環(huán)境中使用,可以輕松
    的頭像 發(fā)表于 03-28 10:03 ?4576次閱讀

    ChatGPT是一個的因果推理器嗎?

    因果推理能力對于許多自然語言處理(NLP)應(yīng)用至關(guān)重要。最近的因果推理系統(tǒng)主要基于經(jīng)過微調(diào)的預(yù)訓(xùn)練語言模型(PLMs),如BERT [1] 和RoBERTa [2]。
    的頭像 發(fā)表于 01-03 09:55 ?769次閱讀
    ChatGPT是一個<b class='flag-5'>好</b>的因果推理器嗎?

    大語言模型背后的Transformer,與CNN和RNN有何不同

    for Language Understanding》,BERT模型橫空出世,并橫掃NLP領(lǐng)域11項(xiàng)任務(wù)的最佳成績。而在BERT中發(fā)揮重要作用的結(jié)構(gòu)就是Transformer,之后又相繼出現(xiàn)XLNET、roBERT等模型擊
    的頭像 發(fā)表于 12-25 08:36 ?3390次閱讀
    大語言模型背后的Transformer,與CNN和RNN有何不同

    電源抑制怎么提高

    電源抑制怎么提高? 電源抑制是衡量電源噪聲抑制效果的重要指標(biāo)。提高電源抑制可以有效降低電源噪聲對電子設(shè)備的影響,提升設(shè)備的穩(wěn)定性和性能。本文將從信號處理、濾波器設(shè)計(jì)、抑制電路、電
    的頭像 發(fā)表于 12-12 14:33 ?670次閱讀

    模擬電源處的濾波經(jīng)常是用LC電路,但是為什么有時LCRC濾波效果差?

    模擬電源處的濾波經(jīng)常是用LC電路。但是為什么有時LCRC濾波效果差? LC濾波電路和RC濾波電路是常見的電源濾波電路,它們的基本原理是利用電感和電容器等元件組成的回路對電源產(chǎn)生的干擾信號進(jìn)行濾波
    的頭像 發(fā)表于 11-24 14:44 ?1678次閱讀

    433MHZ轉(zhuǎn)WiFi和ZIGBEE接網(wǎng)關(guān)那個效果

    使用433MHZ轉(zhuǎn)WiFi的設(shè)備做無線設(shè)備好,還是ZIGBEE接網(wǎng)關(guān)的效果?之前見過433MHZ轉(zhuǎn)WiFi的設(shè)備做智能門鎖,感覺數(shù)據(jù)上傳和下載都很慢,zigbee的還沒有試過,這兩個那個用戶體驗(yàn)好一些?
    發(fā)表于 11-10 07:05

    基于BERT算法搭建一個問答搜索引擎

    鼎鼎大名的 Bert 算法相信大部分同學(xué)都聽說過,它是Google推出的NLP領(lǐng)域“王炸級”預(yù)訓(xùn)練模型,其在NLP任務(wù)中刷新了多項(xiàng)記錄,并取得state of the art的成績。 但是有很多深度
    的頭像 發(fā)表于 10-30 11:46 ?550次閱讀
    基于<b class='flag-5'>BERT</b>算法搭建一個問答搜索引擎

    什么是共模抑制CMRR?什么是電源抑制PSRR?

    什么是共模抑制CMRR?什么是電源抑制PSRR? 共模抑制(common mode rejection ratio,CMRR)和電源抑制(power supply reject
    的頭像 發(fā)表于 10-29 11:45 ?5697次閱讀