0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在情感分析中使用知識的一些代表性工作

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:哈工大SCIR 袁建華 ? 2020-11-02 16:05 ? 次閱讀

1.引文

情感分析 知識

當training數(shù)據(jù)不足以覆蓋inference階段遇到的特征時,是標注更多的數(shù)據(jù)還是利用現(xiàn)有外部知識充當監(jiān)督信號?

基于機器學習、深度學習的情感分析方法,經(jīng)常會遇到有標注數(shù)據(jù)不足,在實際應用過程中泛化能力差的局面。為了彌補這一缺點,學者們嘗試引入外部情感知識為模型提供監(jiān)督信號,提高模型分析性能。本文從常見的外部情感知識類型出發(fā),簡要介紹在情感分析中使用知識的一些代表性工作。

2.正文

我們?yōu)槭裁匆粩鄧L試在情感分析中融入知識呢?筆者以為有如下幾點原因:

1)一般的文本分類任務(wù)只提供句子或文檔級別的情感標簽,引入情感詞典等先驗情感知識可以給情感文本引入更細粒度監(jiān)督信號,使得模型能學到更適合情感分析任務(wù)的特征表示。

2)底層的詞性、句法等分析任務(wù)能給下游的情感分類、抽取任務(wù)提供參考信息,如評價表達通常是形容詞或形容詞短語,而評價對象通常是名詞;不同情感分析任務(wù)本身存在相互促進作用,如評價對象和評價詞在句子中出現(xiàn)的距離通常比較近,聯(lián)合抽取能同時提高兩者的性能表現(xiàn)。

3)短文本評論通常略去了大量的背景常識知識,從文本本身通常難以推斷真實情感傾向性。例如一條有關(guān)大選的推文內(nèi)容是“I am so grateful for Joe Biden. Vote for #JoeBiden!!”,文本中并未涉及任何有關(guān)Trump的描述,要判斷它關(guān)于Trump的立場傾向性時,需要了解的背景知識是,二者是這次大選的競爭對手,支持一個人就意味著反對另一個人。

那情感分析常用的知識又有哪些呢?

2.1 知識的類型及情感分析常用知識庫

依據(jù)對知識獲取途徑的劃分方式[1],我們簡單總結(jié)了情感分析中常用的知識類型:

顯性知識

一般情感詞典(如MPQA,Bing Liu詞典等),情感表情符;否定詞(Negation)、強化詞(Intensification)、連接詞(Conjunction)等規(guī)則

SentiWordNet

ConceptNet,SenticNet

數(shù)據(jù)

數(shù)據(jù) (Twitter、微博表情符弱標注數(shù)據(jù))

領(lǐng)域數(shù)據(jù)集 (例如某一類別商品評論數(shù)據(jù))

學習算法

詞法、句法、語義依存等模型

多任務(wù)學習算法

預訓練語言模型、詞向量學習算法

其中,以情感詞典最為常用。情感分析數(shù)據(jù)通常結(jié)合語言模型算法,產(chǎn)生情感向量表示作為下游任務(wù)輸入;詞法、句法分析模型一般直接為下游情感分析任務(wù)提供特征輸入或者以多任務(wù)學習的方式參與到下游情感分析任務(wù)的訓練過程中;結(jié)構(gòu)化的外部知識庫通常需要借助圖算法進行特征挖掘,為文本提供更豐富的常識、情感上下文信息。

2.2 知識的引入方式及在情感分析部分任務(wù)上的應用

下表展示了幾種常見的知識類型及其特點,我們將根據(jù)知識的獲取途徑及引入方式,結(jié)合具體論文闡述其使用方式。

知識類型 優(yōu)點 缺點
人工情感詞典 質(zhì)量高 規(guī)模小,靜態(tài),覆蓋低
自動情感詞典 規(guī)模大 靜態(tài)、質(zhì)量低
語言學規(guī)則 適用范圍廣 不夠準確
預訓練語言模型 上下文建模能力強 參數(shù)量大,訓練時間長,運行速度慢
常識知識庫 規(guī)模大、質(zhì)量高、覆蓋全 利用困難

目前,相關(guān)的情感分析工作可以大致分為以下幾類:

引入情感詞典知識

要說情感知識,大部分人首先會想到的就是人工編纂的情感詞典,它簡明直觀、質(zhì)量高、極性明確,使用方便,廣泛應用在情感分類、情感元素抽取、情感原因發(fā)現(xiàn)、情感文本風格遷移等多種情感分析任務(wù)上。情感詞區(qū)別于非情感詞的地方在于,它們一般表征一定的情感/情緒狀態(tài),通常情感詞典中還會給出其強度打分。類似的,現(xiàn)在網(wǎng)絡(luò)上流行的部分表情符 (emoj,如:) 、:( 、、)也能表征某些情感/情緒狀態(tài)。

圖1 人工編纂的情感詞典

我們在這里介紹一個同時使用情感詞典中詞的極性和打分的工作,看看前人們是如何在神經(jīng)網(wǎng)絡(luò)中把情感詞的情感信息融入文本的情感表示中的。

給定一段評論文本,Teng等人[2]首先找出其中的情感相關(guān)詞匯(如情感詞、轉(zhuǎn)折詞、否定詞),并計算其對文本整體情感極性的貢獻程度,然后將每個詞的貢獻值乘上其情感得分作為局部的情感極性值,最終加上全局的情感極性預測值作為整個文本的情感得分。

圖2 同時使用情感詞典中詞的極性和打分

雖然上述工作在計算情感得分時,考慮了not、very等否定詞、強化詞的得分信息,但是沒有顯式把這些詞對周圍詞的情感語義表示的影響刻畫出來,Qian等人[3]考慮到情感詞、否定詞、強化詞在情感語義組合過程中起到的不同作用,對文本建模過程中對不同位置詞的情感分布加以約束。例如,若一個詞的上文是not等否定詞,會帶來not處文本情感語義的翻轉(zhuǎn)。

圖3 對不同位置詞的情感分布加以約束

總體來看,情感詞典作為一種易于獲取、極性準確的情感知識,能夠在標注語料之外,為情感分析提供額外的監(jiān)督信號,既可以提升有監(jiān)督模型的泛化能力,也能夠為半監(jiān)督、無監(jiān)督模型提供一定的指導。

引入大規(guī)模無標注語料

語言建模作為一個典型的自監(jiān)督學習任務(wù),其語言模型產(chǎn)生的詞表示作為下游任務(wù)網(wǎng)絡(luò)模型的輸入,表現(xiàn)出優(yōu)越的性能,因而得到廣泛的應用。如果能將情感知識融入到語言模型中,其產(chǎn)生的詞表示必然對情感分析各子任務(wù)帶來性能提升。

我們接著介紹一個在詞向量中融入顯式情感詞典知識(實際使用的是表情符)的方法。

Tang等人[4]觀察到,一般的詞向量對于“good”和“bad”這種上下文相近但極性相反的詞,給出的向量表示沒有很強的區(qū)分性,不利于下游的各情感分析任務(wù)。Twitter和微博中有海量包含表情符的文本,利用這些情感極性明確的表情符可以過濾得到大量弱標注的情感文本。Tang等人使用這些語料,他們在普通的C&W模型基礎(chǔ)上,引入情感得分相關(guān)的損失,將這些弱標注的情感信息融入詞向量表示中,使“good”和“bad”這種上下文相近但情感不同的詞的向量表示有明顯的差異。在情感分類任務(wù)上,他們驗證了融入情感表情符知識的有效性。在此基礎(chǔ)上,他們還進一步自動構(gòu)建大規(guī)模情感詞典,該詞典被[2]應用到Twitter情感分類任務(wù)上。

圖4 將基于表情符過濾的弱標注情感信息融入詞向量表示中

引入外部特征提取算法

除了準確的情感詞知識,詞法、句法、語義依存信息、評價詞和評價表達等情感信息在文本的情感語義建模過程中也發(fā)揮了重要作用,這些知識不是顯性存在于大規(guī)模的知識圖譜中,而是存在于對應的人工標注數(shù)據(jù)中。一般利用學習算法從這些數(shù)據(jù)中訓練用于提取特征的模型。

Tian等人[5]在近期的預訓練BERT語言模型基礎(chǔ)上,將文本中的評價對象(屬性)、情感詞等情感元素引入Mask Language Model預訓練任務(wù),進一步提高了BERT類模型在多個情感分類數(shù)據(jù)集上的性能。

圖5 將多種情感元素引入Mask Language Model預訓練任務(wù) 同[3]類似,Ke等人[6]在預訓練語言模型中引入詞級別的情感、詞性知識。他們先給每個詞預測詞性信息,然后依據(jù)詞性信息從SentiWordNet中推斷其情感極性?;讷@得的詞性和情感信息,他們在一般的Masked Language Model基礎(chǔ)上同時預測這些語言學標簽,實現(xiàn)在預訓練語言模型中注入情感知識。該模型在主流的情感分類、細粒度情感分析數(shù)據(jù)集上取得了目前最好的結(jié)果,證明引入詞性和情感極性知識在預訓練任務(wù)中的有效性。

圖6在預訓練語言模型中引入詞級別的情感、詞性知識

Sun等人[7]提出在面向?qū)傩缘那楦蟹诸悾ˋBSA)任務(wù)上,引入Stanford parser解析得到的依存樹信息輔助識別評價對象相關(guān)的評價詞。他們將GCN在依存樹上學習得到的表示與BLSTM學習到的特征結(jié)合,判斷句子針對評價對象的情感極性。

圖7將GCN在依存樹上學習得到的表示與BLSTM學習到的特征結(jié)合

在外部特征引入方式上,目前方法以兩種方法為主:(1)直接作為特征輸入模型(2)以多任務(wù)學習的方式,作為輔助任務(wù)與主任務(wù)一同訓練。這些方法的區(qū)別主要在引入特征類別或者輔助任務(wù)的任務(wù)設(shè)計。

引入常識知識

除了情感詞典、情感詞向量、情感預訓練語言模型、文本特征抽取器外,結(jié)構(gòu)化的外部知識也是很常見的一種情感知識來源。它的特點是規(guī)模大,覆蓋面廣,蘊含豐富的實體、事件或者常識概念間相關(guān)關(guān)系知識。結(jié)構(gòu)化知識中具備高質(zhì)量的關(guān)系類型,因而適用于需要推理、泛化的情感分析任務(wù)。

一個典型的需要泛化的任務(wù)是跨領(lǐng)域文本情感分類任務(wù)。源端和目標端的評價對象、評價詞等情感相關(guān)特征差異較大,訓練時模型依賴的源端分類特征未必會在目標端文本中出現(xiàn),如何將這些情感特征進行對齊是一個重要且富有挑戰(zhàn)性的問題。一類方法是使用通用情感詞典作為pivot信息,建立源端、目標端共享特征的對齊,但這類方法只考慮共享的情感詞信息,且通過文本本身學習到的情感表達對齊也不充分、準確,同時無法捕獲到不同領(lǐng)域之間評價對象之間鏈接關(guān)系。

而結(jié)構(gòu)化外部知識正好彌補了這些缺點,它蘊含情感詞到非情感詞、不同領(lǐng)域評價對象之間的關(guān)聯(lián)關(guān)系。近年由于圖表示算法的進步,學者們能夠更高效的對這些結(jié)構(gòu)化外部知識加以利用。

在跨領(lǐng)域情感文檔情感分類任務(wù)上,Ghosal等人[8]在ACL2020上提出KinGDOM算法, 利用ConceptNet為所有領(lǐng)域構(gòu)建一個小規(guī)模知識圖譜,然后找出每個文檔中獨有的名詞、形容詞、副詞集合,再依據(jù)從中抽取出一個文檔相關(guān)的子圖,進而提供一個由知識庫知識提取而來的特征表示,與文檔本身的情感表示一起做最后的情感分類。

圖8KinGDOM算法

類似地,在跨目標立場分類任務(wù)上,Zhang等人[9]利用SenticNet和EmoLex構(gòu)建學習帶情緒關(guān)系連接的語義-情緒圖譜(SE-graph),并使用圖卷積神經(jīng)網(wǎng)絡(luò)(GCN)學習節(jié)點表示。給定一段文本,他們使用SE-graph為每個詞學習構(gòu)建一個子圖并學習其表示,得到的外部特征表示送入修改后的BLSTM隱層,與當前上下文特征進行融合。

圖9基于SE-graph 使用GCN學習節(jié)點表示

這兩個工作都使用外部結(jié)構(gòu)知識,擴展了輸入特征空間,利用知識庫中的連接將源端和目標端的評價詞、評價對象等特征進行對齊,極大地豐富了情感上下文信息。

3.總結(jié)

本文介紹了情感分析中引入外部知識的部分工作,簡要介紹了現(xiàn)階段情感分析常用的外部知識,從最常見的情感詞典入手,逐步介紹基于情感詞典的情感詞向量、預訓練語言模型,展示了使用多任務(wù)學習融合詞性、依存句法等文本底層特征抽取器的工作,最后介紹了近期熱門的使用結(jié)構(gòu)化外部知識的文本情感遷移學習工作。我們可以看出,情感詞典雖然最為簡單,卻是情感知識引入多種引入方式的基石,在情感分析算法中地位無出其右。

對于未來工作,一方面,由于目前的情感分析中知識引入的應用場景仍局限在情感分類任務(wù)中,有待擴展到情感抽取、情感(多樣性)生成等各個情感分析任務(wù)上;另一方面,在情感分析專用預訓練語言模型中融合結(jié)構(gòu)化外部知識,增強預訓練語言模型對情感分析相關(guān)世界知識的理解仍有待探索。

參考資料

[1]

劉挺,車萬翔. 自然語言處理中的知識獲取問題.

[2]

Teng et al. Context-Sensitive Lexicon Features for Neural Sentiment Analysis.

[3]

Qian et al. Linguistically Regularized LSTM for Sentiment Classi?cation.

[4]

Tang et al. Learning Sentiment-Speci?c Word Embedding for Twitter Sentiment Classi?cation.

[5]

Tian et al.SKEP: Sentiment Knowledge Enhanced Pre-training for Sentiment Analysis.

[6]

Xu et al.SentiLARE: Sentiment-Aware Language Representation Learning with Linguistic Knowledge.

[7]

Sun et al.Aspect-Level Sentiment Analysis Via Convolution over Dependency Tree.

[8]

Ghosal et al.KinGDOM: Knowledge-Guided DOMain Adaptation for Sentiment Analysis.

[9]

Zhang et al.Enhancing Cross-target Stance Detection with Transferable Semantic-Emotion Knowledge.

責任編輯:xj

原文標題:基于知識引入的情感分析

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8324

    瀏覽量

    132192
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5440

    瀏覽量

    120798
  • 情感分析
    +關(guān)注

    關(guān)注

    0

    文章

    14

    瀏覽量

    5231

原文標題:基于知識引入的情感分析

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    設(shè)計中使用MOSFET安全工作區(qū)曲線

    電子發(fā)燒友網(wǎng)站提供《設(shè)計中使用MOSFET安全工作區(qū)曲線.pdf》資料免費下載
    發(fā)表于 09-07 10:55 ?1次下載
    <b class='flag-5'>在</b>設(shè)計<b class='flag-5'>中使</b>用MOSFET安全<b class='flag-5'>工作</b>區(qū)曲線

    為什么一些路由器中使用ESP32的Active mode無法接收服務(wù)器的TCP數(shù)據(jù)呢?

    我們設(shè)置 AT+CIPRECVMODE=1(Passive mode),我們能夠從服務(wù)器接收 TCP 數(shù)據(jù)。 請解釋為什么一些路由器(如“Arris”)中使用 ESP32 中的 Active mode無法接收服務(wù)器的 TCP
    發(fā)表于 06-27 07:34

    細談SolidWorks教育版的一些基礎(chǔ)知識

    SolidWorks教育版是款廣泛應用于工程設(shè)計和教育領(lǐng)域的三維建模軟件。它具備直觀易用的操作界面和強大的設(shè)計功能,為學生提供了個學習和實踐的平臺。本文中,我們將詳細探討SolidWorks教育版的
    的頭像 發(fā)表于 04-01 14:35 ?279次閱讀

    對于大模型RAG技術(shù)的一些思考

    大模型或者句向量訓練時,使用的語料都是較為通用的語料。這導致了這些模型,對于垂直領(lǐng)域的知識識別是有缺陷的。它們沒有辦法理解企業(yè)內(nèi)部的一些專用術(shù)語,縮寫所表示的具體含義。這樣極大地影響了生成向量的精準度,以及大模型輸出的效果。
    的頭像 發(fā)表于 12-07 09:41 ?1028次閱讀
    對于大模型RAG技術(shù)的<b class='flag-5'>一些</b>思考

    情感語音識別的挑戰(zhàn)與未來趨勢

    、引言 情感語音識別是種通過分析和理解人類語音中的情感信息來實現(xiàn)智能交互的技術(shù)。盡管近年來取得了顯著的進步,但
    的頭像 發(fā)表于 11-30 11:24 ?457次閱讀

    情感語音識別的應用與挑戰(zhàn)

    、引言 情感語音識別是種通過分析人類語音中的情感信息實現(xiàn)智能化和個性化人機交互的技術(shù)。本文將探討情感
    的頭像 發(fā)表于 11-30 10:40 ?557次閱讀

    提高嵌入式代碼質(zhì)量的一些方法

    編程是種創(chuàng)造工作,是門藝術(shù)。精通任何門藝術(shù),都需要很多的練習和領(lǐng)悟,所以這里提出的“智慧”,并不是號稱
    的頭像 發(fā)表于 11-30 09:15 ?395次閱讀

    情感語音識別:挑戰(zhàn)與未來發(fā)展方向

    、引言 情感語音識別是人工智能領(lǐng)域中的項重要技術(shù),它通過分析人類語音中的情感信息,實現(xiàn)更加智能化和個性化的人機交互。然而,
    的頭像 發(fā)表于 11-23 14:37 ?413次閱讀

    西門子伺服驅(qū)動器維修的一些基本知識

    西門子伺服驅(qū)動器維修的一些基本知識
    的頭像 發(fā)表于 11-23 10:55 ?1580次閱讀

    情感語音識別技術(shù)人機交互中的應用與展望

    、引言 隨著人工智能技術(shù)的不斷發(fā)展,人機交互已經(jīng)滲透到日常生活的方方面面。情感語音識別作為人機交互中的關(guān)鍵技術(shù)之,能夠通過分析人類語音中的情感
    的頭像 發(fā)表于 11-22 10:40 ?681次閱讀

    分享一些SystemVerilog的coding guideline

    本文分享一些SystemVerilog的coding guideline。
    的頭像 發(fā)表于 11-22 09:17 ?638次閱讀
    分享<b class='flag-5'>一些</b>SystemVerilog的coding  guideline

    什么是殘余電荷?殘余電荷的代表性試驗

    您是否有日常生活中使用完電器產(chǎn)品拔下插頭后,因觸摸到插頭的金屬部分而發(fā)生觸電的經(jīng)歷呢?我想應該大多數(shù)的人應該是沒有經(jīng)歷過的。
    的頭像 發(fā)表于 11-21 11:24 ?1872次閱讀
    什么是殘余電荷?殘余電荷的<b class='flag-5'>代表性</b>試驗

    情感語音識別的技術(shù)挑戰(zhàn)與解決方案

    、引言 情感語音識別技術(shù)是種通過分析人類語音中的情感信息來理解和識別人的情感狀態(tài)的技術(shù)。然而
    的頭像 發(fā)表于 11-12 17:31 ?438次閱讀

    情感語音識別技術(shù)的應用與未來發(fā)展

    、引言 隨著科技的飛速發(fā)展,情感語音識別技術(shù)已經(jīng)成為人機交互的重要發(fā)展方向。情感語音識別技術(shù)能夠通過分析人類語音中的情感信息,實現(xiàn)更加智能
    的頭像 發(fā)表于 11-12 17:30 ?672次閱讀

    解讀可穿戴設(shè)備代表性產(chǎn)品核心技術(shù)原理

    電子發(fā)燒友網(wǎng)站提供《解讀可穿戴設(shè)備代表性產(chǎn)品核心技術(shù)原理.doc》資料免費下載
    發(fā)表于 10-31 11:22 ?0次下載
    解讀可穿戴設(shè)備<b class='flag-5'>代表性</b>產(chǎn)品核心技術(shù)原理