0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種單獨(dú)適配于NER的數(shù)據(jù)增強(qiáng)方法

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者: JayLou婁杰 ? 2021-01-18 16:28 ? 次閱讀

本文首先介紹傳統(tǒng)的數(shù)據(jù)增強(qiáng)在NER任務(wù)中的表現(xiàn),然后介紹一種單獨(dú)適配于NER的數(shù)據(jù)增強(qiáng)方法,這種方法生成的數(shù)據(jù)更具豐富性、數(shù)據(jù)質(zhì)量更高。

0

前言

在NLP中有哪些數(shù)據(jù)增強(qiáng)技術(shù)?這一定是當(dāng)今NLP面試中的必考題了吧。在《標(biāo)注樣本少怎么辦?》(鏈接:https://zhuanlan.zhihu.com/p/146777068)一文中也詳細(xì)總結(jié)過這個(gè)問題。 但是,目前來看:大多數(shù)「數(shù)據(jù)增強(qiáng)」方法通常被用于文本分類、文本匹配等任務(wù)中,這類任務(wù)有一個(gè)共性:是“句子級(jí)別”(sentence level)的分類任務(wù),大多數(shù)關(guān)于「文本增強(qiáng)」的研究也都針對(duì)這個(gè)任務(wù)。 在2020年5月的時(shí)候,JayJay突然在想:NER如何進(jìn)行數(shù)據(jù)增強(qiáng)?有什么奇思妙想可以用上?于是我陷入沉思中......

NER做數(shù)據(jù)增強(qiáng),和別的任務(wù)有啥不一樣呢?很明顯,NER是一個(gè)token-level的分類任務(wù),在進(jìn)行全局結(jié)構(gòu)化預(yù)測(cè)時(shí),一些增強(qiáng)方式產(chǎn)生的數(shù)據(jù)噪音可能會(huì)讓NER模型變得敏感脆弱,導(dǎo)致指標(biāo)下降、最終奔潰。 在實(shí)踐中,我們也可以把常用的數(shù)據(jù)增強(qiáng)方法遷移到NER中,比如,我們通常采用的「同類型實(shí)體」隨機(jī)替換等。但這類方法通常需要獲得額外資源(實(shí)體詞典、平行語料等),如果沒有知識(shí)庫信息,NER又該如何做數(shù)據(jù)增強(qiáng)呢?有沒有一種單獨(dú)為NER適配的數(shù)據(jù)增強(qiáng)方法呢? 本文JayJay主要介紹在最近頂會(huì)中、對(duì)NER進(jìn)行數(shù)據(jù)增強(qiáng)的2篇paper:

COLING20:《An Analysis of Simple Data Augmentation for Named Entity Recognition》

EMNLP20:《DAGA: Data Augmentation with a Generation Approach for Low-resource Tagging Tasks》

COLING20主要是將傳統(tǒng)的數(shù)據(jù)增強(qiáng)方法應(yīng)用于NER中、并進(jìn)行全面分析與對(duì)比。 EMNLP20主要是提出了一種適配于NER的數(shù)據(jù)增強(qiáng)方法——語言模型生成方法:1)這種方式不依賴于外部資源,比如實(shí)體詞典、平行語料等;2)可同時(shí)應(yīng)用于有監(jiān)督、半監(jiān)督場(chǎng)景。 具體效果如何,我們來一探究竟吧~本文的組織結(jié)構(gòu)為:

bce652b2-58b2-11eb-8b86-12bb97331649.png

1

傳統(tǒng)的數(shù)據(jù)增強(qiáng)方法遷移到NER,效果如何?

bd986998-58b2-11eb-8b86-12bb97331649.png

在COLING20的paper中,作者借鑒sentence-level的傳統(tǒng)數(shù)據(jù)增強(qiáng)方法,將其應(yīng)用于NER中,共有4種方式(如上圖所示):

Label-wise token replacement (LwTR):即同標(biāo)簽token替換,對(duì)于每一token通過二項(xiàng)分布來選擇是否被替換;如果被替換,則從訓(xùn)練集中選擇相同的token進(jìn)行替換。

Synonym replacement (SR):即同義詞替換,利用WordNet查詢同義詞,然后根據(jù)二項(xiàng)分布隨機(jī)替換。如果替換的同義詞大于1個(gè)token,那就依次延展BIO標(biāo)簽。

Mention replacement (MR):即實(shí)體提及替換,與同義詞方法類似,利用訓(xùn)練集中的相同實(shí)體類型進(jìn)行替換,如果替換的mention大于1個(gè)token,那就依次延展BIO標(biāo)簽,如上圖:「headache」替換為「neuropathic pain syndrome」,依次延展BIO標(biāo)簽。

Shuffle within segments (SiS):按照mention來切分句子,然后再對(duì)每個(gè)切分后的片段進(jìn)行shuffle。如上圖,共分為5個(gè)片段: [She did not complain of], [headache], [or], [any other neurological symptoms], [.]. 。也是通過二項(xiàng)分布判斷是否被shuffle(mention片段不會(huì)被shuffle),如果shuffle,則打亂片段中的token順序。

論文也設(shè)置了不同的資源條件:

Small(S):包含50個(gè)訓(xùn)練樣本;

Medium (M):包含150個(gè)訓(xùn)練樣本;

Large (L):包含500個(gè)訓(xùn)練樣本;

Full (F):包含全量訓(xùn)練集;

be1fd5fe-58b2-11eb-8b86-12bb97331649.png

由上圖可以看出:

各種數(shù)據(jù)增強(qiáng)方法都超過不使用任何增強(qiáng)時(shí)的baseline效果。

對(duì)于RNN網(wǎng)絡(luò),實(shí)體提及替換優(yōu)于其他方法;對(duì)于Transformer網(wǎng)絡(luò),同義詞替換最優(yōu)。

總體上看,所有增強(qiáng)方法一起使用(ALL)會(huì)由于單獨(dú)的增強(qiáng)方法。

低資源條件下,數(shù)據(jù)增強(qiáng)效果增益更加明顯;

充分?jǐn)?shù)據(jù)條件下,數(shù)據(jù)增強(qiáng)可能會(huì)帶來噪聲,甚至導(dǎo)致指標(biāo)下降;

2

DAGA:?jiǎn)为?dú)適配于NER的數(shù)據(jù)增強(qiáng)方法

EMNLP這篇NER數(shù)據(jù)增強(qiáng)論文DAGA來自阿里達(dá)摩院,其主要是通過語言模型生成來進(jìn)行增強(qiáng),其整體思路也非常簡(jiǎn)單清晰。

be993f7a-58b2-11eb-8b86-12bb97331649.png

DAGA的核心思路也十分清晰,就是標(biāo)簽線性化:即將原始的「序列標(biāo)注標(biāo)簽」與「句子token」進(jìn)行混合,也就是變成「Tag-Word」的形式,如上圖所示:將「B-PER」放置在「Jose」之前,將「E-PER」放置在「Valentin」之前;對(duì)于標(biāo)簽「O」則不與句子混合。標(biāo)簽線性化后就可以生成一個(gè)句子了,基于這個(gè)句子就可以進(jìn)行「語言模型生成」訓(xùn)練啦~是不是超級(jí)簡(jiǎn)單?!

bf17e67c-58b2-11eb-8b86-12bb97331649.png

DAGA 網(wǎng)絡(luò)(如上圖)僅僅通過一層LSTM進(jìn)行自回歸的語言模型訓(xùn)練,網(wǎng)絡(luò)很輕,沒有基于BERT做。 DAGA的一大優(yōu)點(diǎn)就是不需要額外資源,比如同義詞替換就需要一個(gè)WordNet。但是論文也考慮到了使用外部資源時(shí)的情況,比如:1)有大量無標(biāo)注語料時(shí);2)有外部知識(shí)庫時(shí);

bfe5bd54-58b2-11eb-8b86-12bb97331649.png

對(duì)于不同的3種資源條件下,具體的訓(xùn)練語料構(gòu)建如上圖所示:

對(duì)于標(biāo)注語料,用[labeled]在句首作為條件標(biāo)記;

對(duì)于無標(biāo)注語料,用[unlabeled]在句首作為條件標(biāo)記;

對(duì)于知識(shí)庫,對(duì)無標(biāo)注語料進(jìn)行詞典匹配后(正向最大匹配),用[KB]在句首作為條件標(biāo)記;

只要輸入[BOS]+[labeled]/[unlabeled]/[KB],即可通過上述語言模型、自回歸生成新的增強(qiáng)數(shù)據(jù)啦~ 下面我們分別對(duì)上述3種資源條件下的生成方法進(jìn)行驗(yàn)證:2.1 只使用標(biāo)注語料進(jìn)行語言生成共采用4種實(shí)驗(yàn)設(shè)置:

gold:通過標(biāo)注語料進(jìn)行NER訓(xùn)練

gen:即DAGA,1)通過標(biāo)注語料進(jìn)行語言模型訓(xùn)練、生成新的數(shù)據(jù):2) 過采樣標(biāo)注語料; 3)新數(shù)據(jù)+過采樣標(biāo)注語料,最后一同訓(xùn)練NER;

rd:1)通過隨機(jī)刪除進(jìn)行數(shù)據(jù)增強(qiáng); 2)過采樣標(biāo)注語料;3)新數(shù)據(jù)+過采樣標(biāo)注語料,最后一同訓(xùn)練NER;

rd*:同rd,只是不過采樣標(biāo)注語料。

c05f590c-58b2-11eb-8b86-12bb97331649.png

具體結(jié)果由上圖展示(設(shè)置了6種不同語言數(shù)據(jù)、不同的原始標(biāo)注數(shù)據(jù)量進(jìn)行對(duì)比),可以看出:DAGA方式(gen)明顯超過其他數(shù)據(jù)增強(qiáng)方法,特別是在低資源條件下(1k和2k數(shù)據(jù)量)。2.2 使用無標(biāo)注語料進(jìn)行語言生成共采用3種實(shí)驗(yàn)設(shè)置:

gold:通過標(biāo)注語料進(jìn)行NER訓(xùn)練;

wt:即弱監(jiān)督方法,采用標(biāo)注語料訓(xùn)練好一個(gè)NER模型,然后通過NER模型對(duì)無標(biāo)注語料偽標(biāo)生成新數(shù)據(jù),然后再重新訓(xùn)練一個(gè)NER模型;

gen-ud:通過標(biāo)注和無標(biāo)注語料共同進(jìn)行語言模型訓(xùn)練、生成新數(shù)據(jù),然后再訓(xùn)練NER模型;

c0f47884-58b2-11eb-8b86-12bb97331649.png

由上圖的紅框進(jìn)行對(duì)比,可以看出:DAGA方法在所有設(shè)置下、均超過了弱監(jiān)督數(shù)據(jù)方法。其實(shí)弱監(jiān)督方法生成的數(shù)據(jù)質(zhì)量較低、噪聲較大,而DAGA可以有效改善這一情況。 可以預(yù)見的是:當(dāng)有大量無標(biāo)注語料時(shí),DAGA進(jìn)行的NER數(shù)據(jù)增強(qiáng),將有效提升NER指標(biāo)。2.3 使用無標(biāo)注語料+知識(shí)庫進(jìn)行語言生成同樣也是采用3種實(shí)驗(yàn)設(shè)置:

gold:通過標(biāo)注語料進(jìn)行NER訓(xùn)練;

kb:從全量訓(xùn)練集中積累實(shí)體詞典(實(shí)體要在訓(xùn)練集上中至少出現(xiàn)2次),然后用實(shí)體詞典匹配標(biāo)注無標(biāo)注語料、生成新數(shù)據(jù),最后再訓(xùn)練NER模型;

gen-kb:與kb類似,將kb生成的新數(shù)據(jù)訓(xùn)練語言模型,語言模型生成數(shù)據(jù)后、再訓(xùn)練NER模型;

c173a168-58b2-11eb-8b86-12bb97331649.png

如上圖紅框所示,總體上DAGA超過了kb方式,低資源條件(1k)下,kb方式還是強(qiáng)于DAGA。

3

DAGA為何如此有效?

c1c9bd64-58b2-11eb-8b86-12bb97331649.png

DAGA更具多樣性:

如上圖所示,在原始的訓(xùn)練集中「Sandrine」只會(huì)和「Testud」構(gòu)成一個(gè)實(shí)體span,而DAGA生成的數(shù)據(jù)中,「Sandrine」會(huì)和更豐富的token構(gòu)成一個(gè)實(shí)體。

此外,DAGA會(huì)生成更豐富的實(shí)體上下文,論文以相同實(shí)體mention的1-gram作為評(píng)估指標(biāo)進(jìn)行了統(tǒng)計(jì)。如下圖所示,桔色代表DAGA生成的實(shí)體上下文,比原始的訓(xùn)練集會(huì)有更豐富的上下文。

c2120e2a-58b2-11eb-8b86-12bb97331649.png

DAGA可以有效利用無標(biāo)注語料:DAGA通過無標(biāo)注語料來生成有用的數(shù)據(jù),新數(shù)據(jù)中會(huì)出現(xiàn)那些未在標(biāo)注語料中出現(xiàn)的新實(shí)體。

4

總結(jié)

本文就「NER如何進(jìn)行數(shù)據(jù)增強(qiáng)」進(jìn)行了介紹:

雖然傳統(tǒng)的數(shù)據(jù)增強(qiáng)方法也可用于NER中,不過,JayJay認(rèn)為:傳統(tǒng)的數(shù)據(jù)增強(qiáng)方法應(yīng)用到NER任務(wù)時(shí),需要外部資源,且數(shù)據(jù)增強(qiáng)的豐富性不足、噪音可能較大。

基于語言生成的DAGA方法是NER數(shù)據(jù)增強(qiáng)的一種新興方式,再不利用外部資源時(shí)會(huì)有較好的豐富性、數(shù)據(jù)質(zhì)量較好。

責(zé)任編輯:xj

原文標(biāo)題:打開你的腦洞:NER如何進(jìn)行數(shù)據(jù)增強(qiáng) ?

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    6760

    瀏覽量

    88619
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    588

    瀏覽量

    13464
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    483

    瀏覽量

    21971

原文標(biāo)題:打開你的腦洞:NER如何進(jìn)行數(shù)據(jù)增強(qiáng) ?

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    BitEnergy AI公司開發(fā)出一種新AI處理方法

    BitEnergy AI公司,家專注人工智能(AI)推理技術(shù)的企業(yè),其工程師團(tuán)隊(duì)創(chuàng)新性地開發(fā)了一種名為線性復(fù)雜度乘法(L-Mul)的AI處理方法。該
    的頭像 發(fā)表于 10-22 15:15 ?192次閱讀

    一種利用wireshark對(duì)遠(yuǎn)程服務(wù)器/路由器網(wǎng)絡(luò)抓包方法

    一種利用wireshark對(duì)遠(yuǎn)程服務(wù)器/路由器網(wǎng)絡(luò)抓包方法
    的頭像 發(fā)表于 09-21 08:03 ?1138次閱讀
    <b class='flag-5'>一種</b>利用wireshark對(duì)遠(yuǎn)程服務(wù)器/路由器網(wǎng)絡(luò)抓包<b class='flag-5'>方法</b>

    一種無透鏡成像的新方法

    透鏡成像形式,它使用掃描光束收集散射光進(jìn)行圖像重建,面臨著周期性樣品的挑戰(zhàn)。為了研究微電子或光子元件中的納米級(jí)圖案,一種基于無透鏡成像的新方法可以實(shí)現(xiàn)近乎完美的高分辨率顯微鏡。這在波長短紫外線時(shí)尤為重要,其成像空間分辨率高于
    的頭像 發(fā)表于 07-19 06:20 ?261次閱讀
    <b class='flag-5'>一種</b>無透鏡成像的新<b class='flag-5'>方法</b>

    rup是一種什么模型

    RUP(Rational Unified Process,統(tǒng)建模語言)是一種軟件開發(fā)過程模型,它是一種迭代和增量的軟件開發(fā)方法。RUP是由Rational Software公司(現(xiàn)為
    的頭像 發(fā)表于 07-09 10:13 ?989次閱讀

    基于助聽器開發(fā)的一種高效的語音增強(qiáng)神經(jīng)網(wǎng)絡(luò)

    受限的微控制器單元(microcontroller units,MCU)上,內(nèi)存和計(jì)算能力有限。在這項(xiàng)工作中,我們使用模型壓縮技術(shù)來彌補(bǔ)這差距。我們?cè)贖W上對(duì)RNN施加約束,并描述了一種方法來滿足它們
    發(fā)表于 06-07 11:29

    介紹一種OpenAtom OpenHarmony輕量系統(tǒng)適配方案

    本文在不改變?cè)邢到y(tǒng)基礎(chǔ)框架的基礎(chǔ)上, 介紹了一種OpenAtom OpenHarmony(以下簡(jiǎn)稱“OpenHarmony”)輕量系統(tǒng)適配方案。
    的頭像 發(fā)表于 03-05 09:24 ?985次閱讀
    介紹<b class='flag-5'>一種</b>OpenAtom OpenHarmony輕量系統(tǒng)<b class='flag-5'>適配</b>方案

    一種鋰電池內(nèi)水去除工藝方法

    一種鋰電池內(nèi)水去除工藝方法
    的頭像 發(fā)表于 01-04 10:23 ?412次閱讀
    <b class='flag-5'>一種</b>鋰電池內(nèi)水去除工藝<b class='flag-5'>方法</b>

    一種產(chǎn)生激光脈沖新方法

    等離子體中脈沖壓縮的概念 英國和韓國的科學(xué)家提出了一種產(chǎn)生激光脈沖的新方法,其功率是現(xiàn)有激光脈沖的1000多倍。 科學(xué)家們使用計(jì)算機(jī)模擬聯(lián)合研究,展示了一種壓縮光的新方法,以充分提高光
    的頭像 發(fā)表于 12-07 06:32 ?424次閱讀
    <b class='flag-5'>一種</b>產(chǎn)生激光脈沖新<b class='flag-5'>方法</b>

    一種大功率PCB散熱管理的方法

    一種大功率PCB散熱管理的方法
    的頭像 發(fā)表于 12-05 14:28 ?510次閱讀
    <b class='flag-5'>一種</b>大功率PCB散熱管理的<b class='flag-5'>方法</b>

    一種產(chǎn)生激光脈沖的新方法

    英國和韓國的科學(xué)家提出了一種產(chǎn)生激光脈沖的新方法,其功率是現(xiàn)有激光脈沖的1000多倍。
    的頭像 發(fā)表于 11-20 16:56 ?504次閱讀
    <b class='flag-5'>一種</b>產(chǎn)生激光脈沖的新<b class='flag-5'>方法</b>

    全球第臺(tái)不需要單獨(dú)光源的有機(jī)半導(dǎo)體激光器誕生!

    個(gè)有機(jī)激光器(即由碳基材料制成的激光器)1992年被創(chuàng)造出來。然而,該激光器使用單獨(dú)的光源驅(qū)動(dòng)其增益介質(zhì),這使其設(shè)計(jì)復(fù)雜化并限制了其應(yīng)用。從那以后,研究人員直試圖找到
    的頭像 發(fā)表于 11-20 15:36 ?735次閱讀

    一種具有實(shí)用價(jià)值的OFDM幀同步方法

    電子發(fā)燒友網(wǎng)站提供《一種具有實(shí)用價(jià)值的OFDM幀同步方法.pdf》資料免費(fèi)下載
    發(fā)表于 11-08 15:47 ?0次下載
    <b class='flag-5'>一種</b>具有實(shí)用價(jià)值的OFDM幀同步<b class='flag-5'>方法</b>

    一種高效、靈巧的多通信信號(hào)產(chǎn)生方法

    電子發(fā)燒友網(wǎng)站提供《一種高效、靈巧的多通信信號(hào)產(chǎn)生方法.pdf》資料免費(fèi)下載
    發(fā)表于 11-07 09:54 ?0次下載
    <b class='flag-5'>一種</b>高效、靈巧的多通信信號(hào)產(chǎn)生<b class='flag-5'>方法</b>

    CAN通信協(xié)議里一種checksum校驗(yàn)和的方法

    看到了一種checksum校驗(yàn)和的方法,分享給大家。
    的頭像 發(fā)表于 10-31 12:58 ?3990次閱讀
    CAN通信協(xié)議里<b class='flag-5'>一種</b>checksum校驗(yàn)和的<b class='flag-5'>方法</b>

    一種基于PPM調(diào)制解調(diào)的改進(jìn)方法

    電子發(fā)燒友網(wǎng)站提供《一種基于PPM調(diào)制解調(diào)的改進(jìn)方法.pdf》資料免費(fèi)下載
    發(fā)表于 10-26 11:15 ?0次下載
    <b class='flag-5'>一種</b>基于PPM調(diào)制解調(diào)的改進(jìn)<b class='flag-5'>方法</b>