0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種處理多標(biāo)簽文本分類的新穎推理機(jī)制

深度學(xué)習(xí)自然語言處理 ? 來源:南大NLP ? 作者:南大NLP ? 2021-02-05 09:21 ? 次閱讀

研究動(dòng)機(jī)

標(biāo)簽文本分類(multi-label text classification, 簡(jiǎn)稱MLTC)的目的是在給定文本后要求模型預(yù)測(cè)其多個(gè)非互斥的相關(guān)標(biāo)簽。該任務(wù)在許多自然語言處理任務(wù)上都有體現(xiàn)。如在表1中,需要給該文檔打上標(biāo)簽:basketball、NBA、sport。

表1多標(biāo)簽文本分類的例子

文本 This article is about a game between Houston Rockets and Los Angeles Lakers.
相關(guān)標(biāo)簽 basketball, NBA, sport
不相關(guān)標(biāo)簽 football

一種處理MLTC的簡(jiǎn)單方法是將其轉(zhuǎn)換為多個(gè)獨(dú)立的二分類問題。該方法被稱為BinaryRelevance (BR),由于其簡(jiǎn)單性而被大規(guī)模使用。但該方法的弊端也十分明顯,即該方法完全忽略了標(biāo)簽之間的相關(guān)信息。直覺上,知道一些標(biāo)簽——如上例中的basketball及NBA——會(huì)使得預(yù)測(cè)其他標(biāo)簽(如sport)更加簡(jiǎn)單。研究者指出對(duì)于多標(biāo)簽分類任務(wù)而言,有效利用標(biāo)簽之間的相關(guān)性是有益的、甚至是必要的。為此,涌現(xiàn)出許多利用標(biāo)簽關(guān)系的算法,其中最知名的就是算法Classifier Chains(CC)。該算法將多個(gè)二分類器串聯(lián)起來,其中每個(gè)分類器使用之前分類器的預(yù)測(cè)結(jié)果作為額外的輸入。該方法將潛在的標(biāo)簽依賴納入考慮,但該問題的最大缺陷在于不同的標(biāo)簽順序會(huì)產(chǎn)生天壤之別的性能。同時(shí),CC算法的鏈?zhǔn)浇Y(jié)構(gòu)使得算法無法并行,在處理大規(guī)模數(shù)據(jù)集時(shí)效率低下。

近年來,也有學(xué)者將標(biāo)簽集合視作標(biāo)簽序列,并使用基于神經(jīng)網(wǎng)絡(luò)的端到端模型(seq2seq)來處理該任務(wù)。相較于CC預(yù)測(cè)所有標(biāo)簽,這類seq2seq的模型只預(yù)測(cè)相關(guān)標(biāo)簽。因此該類模型的決策鏈條長(zhǎng)度更短,性能更優(yōu)。但這類模型的性能強(qiáng)烈依賴于標(biāo)簽的順序。在多標(biāo)簽數(shù)據(jù)集中,標(biāo)簽本質(zhì)上是無序的集合,未必可以線性排列。學(xué)者們指出不同的標(biāo)簽順序?qū)τ趯W(xué)習(xí)和預(yù)測(cè)有著重大影響。舉例來說,對(duì)于表1中的例子,如果標(biāo)簽序列以sport開始,則對(duì)于預(yù)測(cè)其他相關(guān)標(biāo)簽的幫助不大。

02

解決方案

為了處理上述問題,我們提出了Multi-Label Reasoner(ML-Reasoner),一個(gè)基于推理機(jī)制的算法。ML-Reasoner的框架如圖1所示,我們?yōu)槊恳粋€(gè)標(biāo)簽分配一個(gè)二分類器,它們同時(shí)預(yù)測(cè)所有標(biāo)簽以滿足標(biāo)簽的無序性質(zhì)。這樣的話,ML-Reasoner可以同時(shí)計(jì)算每一個(gè)標(biāo)簽相關(guān)的概率。例如在處理上例時(shí),ML-Reasoner可能認(rèn)為標(biāo)簽NBA相關(guān)的概率為0.9,basketball的為0.7,sport為0.55,football為0.3.這樣,ML-Reasoner就完全避免依賴標(biāo)簽順序。同時(shí)為了有效利用標(biāo)簽的相關(guān)性,我們?cè)O(shè)置了一種新穎的迭代推理機(jī)制,即將上一輪對(duì)所有標(biāo)簽相關(guān)的預(yù)測(cè)作為下一次迭代的額外特征輸入。這種方法使得ML-Reasoner可以在每一輪的迭代中完善預(yù)測(cè)結(jié)果。舉例來說,考慮到標(biāo)簽NBA與basketball相關(guān)的概率較高,模型可以在后續(xù)迭代中,將標(biāo)簽sport的概率調(diào)高。

274e6dc8-603e-11eb-8b86-12bb97331649.png

圖1 Multi-Label Reasoner整體框架圖

具體到Reasoner的實(shí)現(xiàn),我們將其劃分為五個(gè)組件,其相關(guān)交互關(guān)系見圖2。

2a98ed0a-603e-11eb-8b86-12bb97331649.png

圖2多標(biāo)簽文本分類的Reasoner模塊

- Text Encoder將詞語序列轉(zhuǎn)換為稠密的向量表示,主要負(fù)責(zé)抽取文本特征;

- Label Encoder將上一輪次所有標(biāo)簽的相關(guān)概率轉(zhuǎn)換為相應(yīng)的標(biāo)簽表示;

- Attention模塊負(fù)責(zé)計(jì)算文本與不同標(biāo)簽之間的相關(guān)性;

- Combiner則將文本的原始特征與標(biāo)簽特征進(jìn)行整合;

- 具有相同結(jié)構(gòu)但不同參數(shù)的Classifier則預(yù)測(cè)各個(gè)標(biāo)簽的相關(guān)性。

至于損失函數(shù),我們選擇了Binary Cross Entropy (BCE)。更具體的設(shè)置請(qǐng)參見原文。

03

實(shí)驗(yàn)

我們?cè)趦蓚€(gè)常用的多標(biāo)簽文本分類數(shù)據(jù)集Arxiv Acadmeic Paper Dataset(AAPD)及Reuters Corpus Volum I (RCV1-V2)上進(jìn)行了實(shí)驗(yàn)。AAPD數(shù)據(jù)量更少、標(biāo)簽密度更大,分類難度更大。評(píng)價(jià)指標(biāo)則選用了hamming loss,micro-precision,micro-recall及micro-F1;其中hamming loss越低越好,其他則越高越好。至于基準(zhǔn)模型,我們選用了經(jīng)典模型如BR、CC、LP,也有性能優(yōu)越的seq2seq模型如CNN-RNN、SGM,還有其他一些表現(xiàn)卓越的多標(biāo)簽文本分類模型如LSAN,之外也將seq2set納入進(jìn)來作為比較。seq2set使用強(qiáng)化學(xué)習(xí)算法來緩解seq2seq模型對(duì)于標(biāo)簽順序的依賴程度。同時(shí),為了驗(yàn)證ML-Reasoner在不同文本編碼器上能帶來的性能提升,我們分別使用了CNN、LSTM及BERT作為ML-Reasoner框架中的Text Encoder模塊。實(shí)驗(yàn)結(jié)果如表2所示。

表2 ML-Reasoner及基準(zhǔn)模型在兩個(gè)數(shù)據(jù)集上的性能

2dc99416-603e-11eb-8b86-12bb97331649.png

從表中可以看出,ML-Reasoner在兩個(gè)數(shù)據(jù)集上均達(dá)到了SOTA水準(zhǔn),且在三種不同文本編碼器上都能帶來顯著提升。

為了驗(yàn)證ML-Reasoner可以完全避免對(duì)標(biāo)簽順序的依賴,我們隨機(jī)打亂AAPD數(shù)據(jù)集的標(biāo)簽順序,并進(jìn)行了測(cè)試;各個(gè)模型的性能如表3所示。從表中可以看到,CC及seq2seq模型的性能受標(biāo)簽順序的劇烈影響;seq2set可以顯著緩解seq2seq的問題;而ML-Reasoner則完全不受標(biāo)簽順序的影響。

表3各模型在標(biāo)簽打亂的AAPD數(shù)據(jù)集上的性能

31375fac-603e-11eb-8b86-12bb97331649.png

我們也通過燒蝕實(shí)驗(yàn)(見圖3),確定了推理機(jī)制確實(shí)是性能提升的關(guān)鍵。

317b44e2-603e-11eb-8b86-12bb97331649.png

圖3 ML-Reasoner(T=1,2,5)及CNN-Round(T=1,2,5)在AAPD測(cè)試集上的性能雷達(dá)圖

我們也探究了迭代次數(shù)對(duì)模型性能的影響,由圖4可知,進(jìn)行了一次推理就可以帶來顯著提升;而推理次數(shù)的再次提高并不能帶來更多的提升。這可能是因?yàn)槟P图皵?shù)據(jù)集的選擇導(dǎo)致的。

31f4a364-603e-11eb-8b86-12bb97331649.png

圖4不同迭代輪數(shù)下的ML-Reasoner在AAPD測(cè)試集上的性能雷達(dá)圖

為了進(jìn)一步理解Reasoner發(fā)揮作用的機(jī)制,我們從數(shù)據(jù)集中選取了一些典型示例(見表4)。在第一個(gè)例子中,模型通過推理將相關(guān)標(biāo)簽math.OC添上;模型處理第二個(gè)例子時(shí),則將無關(guān)標(biāo)簽cs.LO剔除;有時(shí)添加與刪除的動(dòng)作也會(huì)同時(shí)發(fā)生(見第三個(gè)例子)。當(dāng)然,推理偶爾也會(huì)使預(yù)測(cè)結(jié)果變差(見第四、第五個(gè)例子)。

表4 AAPD測(cè)試集中一些由于推理機(jī)制預(yù)測(cè)結(jié)果出現(xiàn)變化的實(shí)例

32b5cb2a-603e-11eb-8b86-12bb97331649.png

為了驗(yàn)證上述例子的變化確實(shí)是因?yàn)榭紤]了標(biāo)簽之間的相關(guān)性,我們進(jìn)一步統(tǒng)計(jì)模型在添加或刪除某個(gè)標(biāo)簽時(shí)與其他標(biāo)簽的共現(xiàn)頻率。從圖5中,可以觀察到模型往往在添加某個(gè)標(biāo)簽時(shí),其共現(xiàn)頻率(第二行)與真實(shí)共現(xiàn)頻率接近(第一行);而刪除某個(gè)標(biāo)簽時(shí),其共現(xiàn)頻率(第三行)與真實(shí)共現(xiàn)頻率(第一行)則相差較遠(yuǎn)。

3333a39c-603e-11eb-8b86-12bb97331649.png

圖5 AAPD標(biāo)簽的共現(xiàn)頻率圖

04

結(jié)論

在本文中,我們提出了算法ML-Reasoner。該算法可以同時(shí)預(yù)測(cè)所有標(biāo)簽進(jìn)而避免了對(duì)標(biāo)簽順序的依賴;之外,他通過新穎的推理機(jī)制利用了標(biāo)簽之間的高階關(guān)系。實(shí)驗(yàn)結(jié)果表明了ML-Reasoner在捕獲標(biāo)簽依賴之間的有效性;進(jìn)一步的分析驗(yàn)證了其確實(shí)未對(duì)標(biāo)簽順序產(chǎn)生依賴。一些經(jīng)驗(yàn)性試驗(yàn)也揭示了該算法發(fā)揮作用的機(jī)制。由于ML-Reasoner未顯式利用標(biāo)簽之間的關(guān)系,如層次結(jié)構(gòu)等,如何將這些信息納入考慮是值得進(jìn)一步探索的。

原文標(biāo)題:【IPM2020】一種處理多標(biāo)簽文本分類的新穎推理機(jī)制

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46397

    瀏覽量

    236617
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8325

    瀏覽量

    132213
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    483

    瀏覽量

    21976

原文標(biāo)題:【IPM2020】一種處理多標(biāo)簽文本分類的新穎推理機(jī)制

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    單日獲客成本超20萬,國產(chǎn)大模型開卷200萬字以上的長(zhǎng)文本處理

    更精準(zhǔn)的推理和高并發(fā)流量以外,似乎已經(jīng)沒有太多值得廠商大肆宣傳的特性了,直到最近超長(zhǎng)文本處理的爆火。 ? 國產(chǎn)大模型的新卷法,長(zhǎng)文本處理 ? 當(dāng)下將大模型長(zhǎng)文本處理炒熱的,無疑是來自月
    的頭像 發(fā)表于 03-27 00:53 ?3258次閱讀
    單日獲客成本超20萬,國產(chǎn)大模型開卷200萬字以上的長(zhǎng)<b class='flag-5'>文本處理</b>

    BitEnergy AI公司開發(fā)出一種新AI處理方法

    BitEnergy AI公司,家專注于人工智能(AI)推理技術(shù)的企業(yè),其工程師團(tuán)隊(duì)創(chuàng)新性地開發(fā)了一種名為線性復(fù)雜度乘法(L-Mul)的AI處理方法。該方法的核心在于,它用整數(shù)加法替代
    的頭像 發(fā)表于 10-22 15:15 ?231次閱讀

    雷達(dá)的基本分類方法

    電子發(fā)燒友網(wǎng)站提供《雷達(dá)的基本分類方法.pdf》資料免費(fèi)下載
    發(fā)表于 09-11 09:09 ?6次下載

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    習(xí)語言的表達(dá)方式和生成能力。通過預(yù)測(cè)文本中缺失的部分或下個(gè)詞,模型逐漸掌握語言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語言模型通?;赥ransformer架構(gòu),這是一種能夠
    發(fā)表于 08-02 11:03

    利用TensorFlow實(shí)現(xiàn)基于深度神經(jīng)網(wǎng)絡(luò)的文本分類模型

    要利用TensorFlow實(shí)現(xiàn)個(gè)基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的文本分類模型,我們首先需要明確幾個(gè)關(guān)鍵步驟:數(shù)據(jù)預(yù)處理、模型構(gòu)建、模型訓(xùn)練、模型評(píng)估與調(diào)優(yōu),以及最終的模型部署(盡管在本文中,我們將重點(diǎn)放在前四個(gè)步驟上)。下面,我將
    的頭像 發(fā)表于 07-12 16:39 ?569次閱讀

    llm模型有哪些格式

    Representations from Transformers):BERT是一種雙向預(yù)訓(xùn)練模型,通過大量文本數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,可以用于各種NLP任務(wù),如文本分類、問答、命名實(shí)體識(shí)別等。 b. GPT(
    的頭像 發(fā)表于 07-09 09:59 ?454次閱讀

    自然語言處理是什么技術(shù)的一種應(yīng)用

    自然語言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能和語言學(xué)領(lǐng)域的個(gè)分支,它涉及到使用計(jì)算機(jī)技術(shù)來處理、分析和生成自然語言文本。自然語言
    的頭像 發(fā)表于 07-03 14:18 ?473次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在文本分類領(lǐng)域的應(yīng)用

    在自然語言處理(NLP)領(lǐng)域,文本分類直是個(gè)重要的研究方向。隨著深度學(xué)習(xí)技術(shù)的飛速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)在圖像識(shí)
    的頭像 發(fā)表于 07-01 16:25 ?510次閱讀

    基于神經(jīng)網(wǎng)絡(luò)的呼吸音分類算法

    。噪聲分類器是一種稱為NRNN的堆疊RNN,它預(yù)測(cè)樣本中每幀的噪聲標(biāo)簽。NRNN優(yōu)化訓(xùn)練期間為每個(gè)輸出計(jì)算的交叉熵?fù)p失 然后,預(yù)測(cè)噪聲標(biāo)簽
    發(fā)表于 05-31 12:05

    人工智能中文本分類的基本原理和關(guān)鍵技術(shù)

    在本文中,我們?nèi)嫣接懥?b class='flag-5'>文本分類技術(shù)的發(fā)展歷程、基本原理、關(guān)鍵技術(shù)、深度學(xué)習(xí)的應(yīng)用,以及從RNN到Transformer的技術(shù)演進(jìn)。文章詳細(xì)介紹了各種模型的原理和實(shí)戰(zhàn)應(yīng)用,旨在提供對(duì)文本分類技術(shù)深入理解的全面視角。
    的頭像 發(fā)表于 12-16 11:37 ?1107次閱讀
    人工智能中<b class='flag-5'>文本分類</b>的基本原理和關(guān)鍵技術(shù)

    TechInsights關(guān)于蘋果智能手表金屬殼電池的探討——一種適用于便攜式和可穿戴電子產(chǎn)品的新穎設(shè)計(jì)

    TechInsights關(guān)于蘋果智能手表金屬殼電池的探討——一種適用于便攜式和可穿戴電子產(chǎn)品的新穎設(shè)計(jì)
    的頭像 發(fā)表于 11-29 16:10 ?377次閱讀
    TechInsights關(guān)于蘋果智能手表金屬殼電池的探討——<b class='flag-5'>一種</b>適用于便攜式和可穿戴電子產(chǎn)品的<b class='flag-5'>新穎</b>設(shè)計(jì)

    一種基于無源射頻識(shí)別標(biāo)簽的消防員室內(nèi)定位系統(tǒng)

    電子發(fā)燒友網(wǎng)站提供《一種基于無源射頻識(shí)別標(biāo)簽的消防員室內(nèi)定位系統(tǒng).pdf》資料免費(fèi)下載
    發(fā)表于 11-07 11:29 ?1次下載
    <b class='flag-5'>一種</b>基于無源射頻識(shí)別<b class='flag-5'>標(biāo)簽</b>的消防員室內(nèi)定位系統(tǒng)

    一種高效、靈巧的通信信號(hào)產(chǎn)生方法

    電子發(fā)燒友網(wǎng)站提供《一種高效、靈巧的通信信號(hào)產(chǎn)生方法.pdf》資料免費(fèi)下載
    發(fā)表于 11-07 09:54 ?0次下載
    <b class='flag-5'>一種</b>高效、靈巧的<b class='flag-5'>多</b>通信信號(hào)產(chǎn)生方法

    使用rk3588npu推理模型,模型總推理時(shí)間還增加了,這怎么解釋

    使用rk3588npu推理模型,模型總推理時(shí)間還增加了,這怎么解釋
    發(fā)表于 11-05 18:22

    一種單片機(jī)機(jī)通信系統(tǒng)的設(shè)計(jì)

    電子發(fā)燒友網(wǎng)站提供《一種單片機(jī)機(jī)通信系統(tǒng)的設(shè)計(jì).pdf》資料免費(fèi)下載
    發(fā)表于 10-30 11:11 ?0次下載
    <b class='flag-5'>一種</b>單片機(jī)<b class='flag-5'>多</b>機(jī)通信系統(tǒng)的設(shè)計(jì)