0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在Prompt Learning下引入外部知識達到好文本分類效果

深度學習自然語言處理 ? 來源:夕小瑤的賣萌屋 ? 作者:小偉 ? 2022-07-08 11:53 ? 次閱讀

背景

利用Prompt Learning(提示學習)進行文本分類任務(wù)是一種新興的利用預(yù)訓(xùn)練語言模型的方式。在提示學習中,我們需要一個標簽詞映射(verbalizer),將[MASK]位置上對于詞表中詞匯的預(yù)測轉(zhuǎn)化成分類標簽。例如{POLITICS: "politics", SPORTS: "sports"} 這個映射下,預(yù)訓(xùn)練模型在[MASK]位置對于politics/sports這個標簽詞的預(yù)測分數(shù)會被當成是對POLITICS/SPORTS這個標簽的預(yù)測分數(shù)。

手工定義或自動搜索得到的verbalizer有主觀性強覆蓋面小等缺點,我們使用了知識庫來進行標簽詞的擴展和改善,取得了更好的文本分類效果。同時也為如何在Prompt Learning下引入外部知識提供了參考。

方法

我們提出使用知識庫擴展標簽詞,通過例如相關(guān)詞詞表,情感詞典等工具,基于手工定義的初始標簽詞進行擴展。例如,可以將{POLITICS: "politics", SPORTS: "sports"} 擴展為以下的一些詞:

bd18025a-ed60-11ec-ba43-dac502259ad0.png

表1: 基于知識庫擴展出的標簽詞。

bd25f252-ed60-11ec-ba43-dac502259ad0.png

圖1: 以問題分類任務(wù)為例的KPT流程圖。

之后我們可以通過一個多對一映射將多個詞上的預(yù)測概率映射到某個標簽上。

但是由于知識庫不是為預(yù)訓(xùn)練模型量身定做的,使用知識庫擴展出的標簽詞具有很大噪音。例如SPORTS擴展出的movement可能和POLITICS相關(guān)性很大,從而引起混淆;又或者POLITICS擴展出的machiavellian(為奪取權(quán)力而不擇手段的)則可能由于詞頻很低不容易被預(yù)測到,甚至被拆解成多個token而不具有詞語本身的意思。

因此我們提出了三種精調(diào)以及一種校準的方法。

01

頻率精調(diào)

我們利用預(yù)訓(xùn)練模型M本身對于標簽詞v的輸出概率當成標簽詞的先驗概率,用來估計標簽詞的先驗出現(xiàn)頻率。我們把頻率較小的標簽詞去掉。

bd379138-ed60-11ec-ba43-dac502259ad0.png

公式1: 頻率精調(diào)。C代表語料庫。

02

相關(guān)性精調(diào)

有的標簽詞和標簽相關(guān)性不大,有些標簽詞會同時和不同標簽發(fā)生混淆。我們利用TF-IDF的思想來賦予每個標簽詞一個對于特定類別的重要性。

bd427238-ed60-11ec-ba43-dac502259ad0.png

公式2: 相關(guān)性精調(diào),r(v,y)是一個標簽詞v和標簽y的相關(guān)性,類似于TF項。右邊一項則類似IDF項,我們要求這一項大也就是要求v和其非對應(yīng)類相關(guān)性小。

03

可學習精調(diào)

在少樣本實驗中,我們可以為每個標簽詞賦予一個可學習的權(quán)重,因此每個標簽詞的重要性就變成:

bd4dc138-ed60-11ec-ba43-dac502259ad0.png

公式3:可學習的標簽詞權(quán)重。

04

基于上下文的校準

在零樣本實驗中不同標簽詞的先驗概率可能差得很多,例如預(yù)測 basketball可能天然比fencing大,會使得很多小眾標簽詞影響甚微。我們使用校準的方式來平衡這種影響。

bd5be0a6-ed60-11ec-ba43-dac502259ad0.png

公式4: 基于上下文的校準,分母是公式1中的先驗概率。

使用上以上這些精調(diào)方法,我們知識庫擴展的標簽詞就能有效使用了。

實驗

bd6714d0-ed60-11ec-ba43-dac502259ad0.png

表2:零樣本文本分類任務(wù)。

如表2所示,零樣本上相比于普通的Prompt模板,性能有15個點的大幅長進。相比于加上了標簽詞精調(diào)的也最多能有8個點的提高。我們提出的頻率精調(diào),相關(guān)性精調(diào)等也各有用處。

bd73cfcc-ed60-11ec-ba43-dac502259ad0.png

表3:少樣本文本分類任務(wù)。

如表3所示,在少樣本上我們提出的可學習精調(diào)搭配上相關(guān)性精調(diào)也有較大提升。AUTO和SOFT都是自動的標簽詞優(yōu)化方法,其中SOFT以人工定義的標簽詞做初始化,可以看到這兩種方法的效果都不如KPT。

bd83242c-ed60-11ec-ba43-dac502259ad0.png

圖2: SPORTS和BUSINESS類的知識庫擴展的標簽詞對于預(yù)測的貢獻。

標簽詞的可視化表明,每一條句子可能會依賴不同的標簽詞進行預(yù)測,完成了我們增加覆蓋面的預(yù)期。

總結(jié)

最近比較受關(guān)注的Prompt Learning方向,除了template的設(shè)計,verbalizer的設(shè)計也是彌補MLM和下游分類任務(wù)的重要環(huán)節(jié)。我們提出的基于知識庫的擴展,直觀有效。同時也為如何在預(yù)訓(xùn)練模型的的利用中引入外部知識提供了一些參考。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 頻率
    +關(guān)注

    關(guān)注

    4

    文章

    1406

    瀏覽量

    59060
  • 知識庫
    +關(guān)注

    關(guān)注

    0

    文章

    10

    瀏覽量

    6712

原文標題:ACL2022 | KPT: 文本分類中融入知識的Prompt Verbalizer

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    RK3588 技術(shù)分享 | 在Android系統(tǒng)中使用NPU實現(xiàn)Yolov5分類檢測

    : NPU幫助機器完成更高效的翻譯、文本分類和情感分析,推動了自然語言處理技術(shù)的發(fā)展。 實例分享:Yolov5分類檢測 在RK3588處理器上,不僅可以基于Linux系統(tǒng)使用NPU,也可以
    發(fā)表于 10-24 10:13

    何在TMS320C6727 DSP上創(chuàng)建基于延遲的音頻效果

    電子發(fā)燒友網(wǎng)站提供《如何在TMS320C6727 DSP上創(chuàng)建基于延遲的音頻效果.pdf》資料免費下載
    發(fā)表于 10-16 10:35 ?0次下載
    如<b class='flag-5'>何在</b>TMS320C6727 DSP上創(chuàng)建基于延遲的音頻<b class='flag-5'>效果</b>

    雷達的基本分類方法

    電子發(fā)燒友網(wǎng)站提供《雷達的基本分類方法.pdf》資料免費下載
    發(fā)表于 09-11 09:09 ?6次下載

    RK3588 技術(shù)分享 | 在Android系統(tǒng)中使用NPU實現(xiàn)Yolov5分類檢測

    : NPU幫助機器完成更高效的翻譯、文本分類和情感分析,推動了自然語言處理技術(shù)的發(fā)展。 實例分享:Yolov5分類檢測 在RK3588處理器上,不僅可以基于Linux系統(tǒng)使用NPU,也可以
    發(fā)表于 08-20 11:13

    利用TensorFlow實現(xiàn)基于深度神經(jīng)網(wǎng)絡(luò)的文本分類模型

    要利用TensorFlow實現(xiàn)一個基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的文本分類模型,我們首先需要明確幾個關(guān)鍵步驟:數(shù)據(jù)預(yù)處理、模型構(gòu)建、模型訓(xùn)練、模型評估與調(diào)優(yōu),以及最終的模型部署(盡管在本文中,我們將重點放在前四個步驟上)。下面,我將詳細闡述這些步驟,并給出一個具體的示例。
    的頭像 發(fā)表于 07-12 16:39 ?569次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在文本分類領(lǐng)域的應(yīng)用

    顯著成就后,也逐漸被引入文本分類任務(wù)中。卷積神經(jīng)網(wǎng)絡(luò)通過模擬人類視覺系統(tǒng)的信息處理方式,能夠有效地提取文本中的局部特征,進而實現(xiàn)高精度的文本分類。本文將對卷積神經(jīng)網(wǎng)絡(luò)在
    的頭像 發(fā)表于 07-01 16:25 ?510次閱讀

    何在idf工程中引入mdf WiFi-Mesh函數(shù)?

    我原先在idf開發(fā)好的程序,如何引入mdf進行開發(fā)?需要用到WiFi-Mesh,看了mdf的例程是比較合適的,而idf的wifi-m
    發(fā)表于 06-28 14:59

    交換機的基本分類

      交換機作為網(wǎng)絡(luò)通訊中的核心設(shè)備之一,其在網(wǎng)絡(luò)架構(gòu)中起著至關(guān)重要的作用。隨著信息技術(shù)的飛速發(fā)展,交換機也在不斷演進和革新,以滿足日益復(fù)雜的網(wǎng)絡(luò)需求。本文將對交換機的分類及其特點進行詳細介紹,以期為讀者提供清晰、深入的理解。
    的頭像 發(fā)表于 06-06 11:06 ?1221次閱讀

    了解如何使用PyTorch構(gòu)建圖神經(jīng)網(wǎng)絡(luò)

    圖神經(jīng)網(wǎng)絡(luò)直接應(yīng)用于圖數(shù)據(jù)集,您可以訓(xùn)練它們以預(yù)測節(jié)點、邊緣和與圖相關(guān)的任務(wù)。它用于圖和節(jié)點分類、鏈路預(yù)測、圖聚類和生成,以及圖像和文本分類。
    發(fā)表于 02-21 12:19 ?659次閱讀
    了解如何使用PyTorch構(gòu)建圖神經(jīng)網(wǎng)絡(luò)

    何在VDAC上使用外部頻閃功能?

    何在 VDAC 上使用外部頻閃功能? 它使用上升邊緣嗎? 我看不到具體說明。
    發(fā)表于 01-30 08:12

    如何從訓(xùn)練集中生成候選prompt 三種生成候選prompt的方式

    預(yù)測正確的),讓LLM給出當前prompt預(yù)測錯誤的原因,這一原因即文本形式的“gradient”。使用的還是LLM!
    的頭像 發(fā)表于 01-12 11:29 ?793次閱讀
    如何從訓(xùn)練集中生成候選<b class='flag-5'>prompt</b> 三種生成候選<b class='flag-5'>prompt</b>的方式

    人工智能中文本分類的基本原理和關(guān)鍵技術(shù)

    在本文中,我們?nèi)嫣接懥?b class='flag-5'>文本分類技術(shù)的發(fā)展歷程、基本原理、關(guān)鍵技術(shù)、深度學習的應(yīng)用,以及從RNN到Transformer的技術(shù)演進。文章詳細介紹了各種模型的原理和實戰(zhàn)應(yīng)用,旨在提供對文本分類技術(shù)深入理解的全面視角。
    的頭像 發(fā)表于 12-16 11:37 ?1107次閱讀
    人工智能中<b class='flag-5'>文本分類</b>的基本原理和關(guān)鍵技術(shù)

    請問外部噪聲引入目標系統(tǒng)的途徑和抑制方法有哪些?

    請問外部噪聲引入目標系統(tǒng)的途徑和抑制方法有哪些? 外部噪聲是指來自于環(huán)境或設(shè)備的不希望信號干擾,導(dǎo)致目標系統(tǒng)輸出的信號出現(xiàn)失真或其他問題。為了解決這個問題,我們首先需要了解外部噪聲
    的頭像 發(fā)表于 11-09 15:53 ?406次閱讀

    藍牙怎么達到抗干擾的效果

    藍牙怎么達到抗干擾的效果
    發(fā)表于 11-07 07:24

    在英特爾開發(fā)套件上用OpenVIN實現(xiàn)中文圖文檢索

    embedding,根據(jù)特征相似度匹配可完成圖像分類和相似查找任務(wù)。CLIP 模型的 zero-shot 分類效果就能達到在 Imagenet 上監(jiān)督訓(xùn)練的 ResNet
    的頭像 發(fā)表于 10-27 11:06 ?734次閱讀
    在英特爾開發(fā)套件上用OpenVIN實現(xiàn)中文圖文檢索