0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于主觀知識的任務(wù)型對話建模

深度學(xué)習(xí)自然語言處理 ? 來源:哈工大SCIR ? 2023-10-31 16:48 ? 次閱讀

1 引言

對話系統(tǒng)技術(shù)挑戰(zhàn)賽 DSTC(The Dialog System Technology Challenge)是對話技術(shù)領(lǐng)域的頂級賽事,到 2023 年已舉辦至第 11 屆。

DSTC11 共設(shè)有 5 個賽道,其中剛剛結(jié)束的 track5 的主題是基于主觀知識的任務(wù)型對話建模。本賽道包括三個子任務(wù):

Turn Detection:判斷當(dāng)前的對話是否需要外部知識

Knowledge Selection:在非結(jié)構(gòu)化主觀知識文檔中選出相關(guān)的知識候選

Response Generation:根據(jù)第二步的知識候選生成回復(fù)

我們參加了 DSTC11-track5 并在所有 14 個參賽隊伍中排名第三(客觀指標(biāo)),其中 Turn Detection 子任務(wù)排名第一。本文將介紹 track 5 相關(guān)內(nèi)容以及我們在競賽中嘗試的方法。

2 賽題介紹

我們在本章中詳細介紹具有主觀知識的任務(wù)型對話 (SK-TOD) 建模任務(wù)的數(shù)據(jù)集、子任務(wù)、競賽評價指標(biāo)以及進行的前期相關(guān)調(diào)研。

2.1 數(shù)據(jù)集介紹

下圖[1]為對話數(shù)據(jù)集中的三個對話實例和與它們相關(guān)的知識數(shù)據(jù)中的主觀知識條目示例:

01ca1bb0-779c-11ee-939d-92fbcf53809c.png

對話實例與主觀知識條目示例

對話數(shù)據(jù)集有兩部分來源:

主辦方標(biāo)注的 19696 條需要主觀知識的對話,這些對話既有包含單個實體,又有包含多個實體的(如圖 1 的 Dialogue 2)。

從 MultiWOZ[2] 任務(wù)型對話數(shù)據(jù)集中抽取的 18383 條不需要主觀知識的對話。

知識包括兩種:review 類型的主觀知識(由多個句子組成) 和 FAQs 類型的知識(問答對)。這些知識被被劃分為兩個域:hotel 和 restaurant,分別包含 33 個實體和 110 個實體。

例如,hotel 域中的 Hobsons House 實體,包含的 review 知識有:

"IwasverypleasewithmyrecentvisittoHobsonsHouse." "Iwasonabusinesstripandneededaquietplacetostayandthisplacefitthebill!" "WhileIwasnotpleasedwiththeslowwi-fiandsmallroom,Iwascontentwiththeirawesomebreakfastoptions,friendlyandengagingstaffmembersandthebestpart!" "Niceandquiet,justthewayIlikeit!" "Woulddefinitelyrecommendthisplacetofriendsandplanonstayinghereagainonmynextventure!" ...

包含的 FAQs 知識有:

question:"Whatdoyouofferforbreakfast?", answer:"AnFullEnglish/IrishbreakfastisavailableattheHOBSONSHOUSE" question:"Whatisthecheck-outtimeatyourlocation?", answer:"Check-outtimeattheHobsonsHouseisbetween7:30amand10am." ...

2.2 問題定義

我們給出 DSTC11-track5 賽題的一般化定義。對于每一個對話實例 ,除最后一輪外,之前每一輪都有 agent 的回復(fù) 與用戶查詢 對應(yīng)。整個對話實例 可能與一個或多個實體相關(guān),我們將該實體集合定義為。

定義主觀知識數(shù)據(jù),其中,表示每一個實體包含的若干知識條目。

我們的做法將整個任務(wù)進一步分解為如下圖所示的四個階段:

01f1eafa-779c-11ee-939d-92fbcf53809c.png

圖2. 基于主觀知識的任務(wù)型對話建模流程

Turn Detection:判斷用戶最后一輪查詢 是否需要主觀知識

Entity Tracking:如需要主觀知識,則確定與之相關(guān)的實體集合 (本部分不在比賽評測中)

Entry Selection:從實體 包含的知識候選集合 中選出相關(guān)的主觀知識條目

Response Generation:由對話上文 和相關(guān)的主觀知識條目生成回復(fù)

本賽道的難點有三個:

當(dāng)需要檢索主觀知識時,每個對話對應(yīng)的知識條目是不確定數(shù)目的若干條;

驗證集和測試集的分布與訓(xùn)練集有較大差異,有大量的 unseen 信息;

不同的主觀知識有不同的情感傾向,回復(fù)中需要考慮多條主觀知識中的不同情感傾向。

2.3 評價指標(biāo)

三個子任務(wù)的評價指標(biāo)分別為:

Turn Detection:Precision、Recall、F1

Knowledge Selection:Precision、Recall、F1、Exact Match

Response Generation:BLEU、METEOR、ROUGE-1、ROUGE-2、Rouge-L

客觀評測的最終分?jǐn)?shù)為每個評價指標(biāo)排名的倒數(shù)和,即

其中 為第 個評測指標(biāo)的結(jié)果在所有參賽結(jié)果中的排名。

2.4 相關(guān)調(diào)研

我們首先調(diào)研了 DSTC 的往屆比賽,其中 DSTC9-track1 和 DSTC10-track2 均與本屆賽題類似。

DSTC9-track1 的問題定義,數(shù)據(jù)集格式與本賽題完全相同,唯一的不同點在于每輪對話只需找出一條最相關(guān)的知識,問題要簡單許多:

He[3]等人提出了圖式引導(dǎo)的知識決策、否定強化的知識選擇和基于知識及機器理解的回復(fù)生成以適應(yīng)三個子任務(wù)。

Tang[4]等人提出了基于 API 關(guān)鍵字與對話上下文相關(guān)性學(xué)習(xí)的方法。

DSTC10-track2 將外部知識數(shù)據(jù)從書面語更改為口語,使得構(gòu)建高泛化能力的模型更為重要。而且,由于該競賽并未給出訓(xùn)練集,參賽隊伍提出了很多有效的數(shù)據(jù)增廣方法:

Yan[5]等人提出了一種基于域分類任務(wù)和實體選擇任務(wù)來學(xué)習(xí)多級語義信息的方法,以及通過注入基于語音相似性的人工生成的擾動方法來擴充書面數(shù)據(jù)的思路。

Xu[6]等人首次嘗試將掩碼跨度語言建模應(yīng)用于對話狀態(tài)生成,該方法有效增強了模型的泛化能力。

Whang[7]等人使用了 Levenstein 距離進行后處理來避免模型預(yù)測失真問題。

Yu[8]等人在 baseline 中增加了卷積層,這一改動獲得了更好的跨度預(yù)測性能,并使用了一種稱為 multiple 的跟蹤多值的自適應(yīng)方法。

Cho[9]等人采用了實體檢測以及域跟蹤的方法縮小了候選知識的范圍。

Tan[10]等人提出了基于指針網(wǎng)絡(luò)的“知識復(fù)制”方法,有效減輕了 decoder 的壓力,同時提出分段響應(yīng)的方法:用不同的模型生成知識選取部分和問候應(yīng)答部分。

除此外,我們還調(diào)研了一些使用 MultiWOZ 數(shù)據(jù)集做端到端對話生成的模型:

He[11]等人提出的 GALAXY 模型使用門控機制來給未標(biāo)記數(shù)據(jù)打偽標(biāo)簽。

Lee[12]設(shè)計了一個巧妙的模型,用對話狀態(tài)跟蹤模塊在考慮對話歷史的情況下跟蹤信念狀態(tài)(用戶目標(biāo)),然后再通過信念狀態(tài)作為查詢獲得數(shù)據(jù)庫狀態(tài),最后生成回復(fù)。

3 競賽方案

3.1 數(shù)據(jù)增強

我們基于原始數(shù)據(jù)集構(gòu)造了兩種增強數(shù)據(jù)集:

unseen 數(shù)據(jù)集:利用知識數(shù)據(jù)擴充對話。在對話數(shù)據(jù)集中,每一個對話實例都圍繞一個實體展開,知識數(shù)據(jù)中會有很多與這個實體相關(guān)的問答型知識(FAQ)。我們將這些問答對隨機拼接在原始的對話實例中,就得到了只涉及一個實體的新的對話實例。為了模擬真實場景中話題轉(zhuǎn)移,我們在另一個實體下生成對話的另一部分,并以 80% 的概率將它們拼接在一起[13]。

noise 數(shù)據(jù)集:采用谷歌翻譯服務(wù)將英語翻譯成其它四種語言(西班牙語/德語/日語/法語),然后再將其回譯為英語。當(dāng)回譯句子與原句子相似度過高(這一現(xiàn)象在英法互譯中較為普遍)時,我們使用 Wordnet 進行同義詞替換以增加其多樣性。最后,我們將對話數(shù)據(jù)集及知識數(shù)據(jù)擴充為原來的 5 倍,這些數(shù)據(jù)用于對模型預(yù)訓(xùn)練。進一步將 5 種對話數(shù)據(jù)集和知識數(shù)據(jù)兩兩組合,得到原來 25 倍大小的數(shù)據(jù)集。因為回譯和同義詞替換引入了詞級和語義級的干擾,所以我們定義此數(shù)據(jù)為noise數(shù)據(jù)。

3.2 Turn Detection 階段

本階段的目標(biāo)是判斷當(dāng)前對話用戶的最后一輪查詢是否需要主觀知識,是一個二分類問題。

我們使用自編碼預(yù)訓(xùn)練模型 DeBERTa-v3-base[14],將當(dāng)前對話上文和最一輪查詢 作為輸入,取最后一個隱藏層的第一個 token 即 [CLS] 的向量作為對話表示,將其輸入一個線性層中就求得分類概率:

為了在后面進行模型融合,提高整體的泛化能力,我們訓(xùn)練了三個模型,分別適用于三種場景:

Seen expert。使用 DSTC11-track5 提供的訓(xùn)練集微調(diào) DeBERTA-v3-base 模型,得到在驗證集上表現(xiàn)最好的模型。這個模型在見過的對話實例上有極好的表現(xiàn)。

Unseen expert。為增強模型在未見過的對話實例上的檢測能力,我們使用 3.1 介紹的 unseen 數(shù)據(jù)集對 RoBERTa[15] 模型進行微調(diào)。

De-noise expert。為得到一個泛化能力較強的模型,我們考慮使用 3.1 介紹的 noise 數(shù)據(jù)集進行訓(xùn)練。首先,用回譯的 5 倍數(shù)據(jù)集基于 word-masking[16]預(yù)訓(xùn)練方法對 DeBERTa 模型進行預(yù)訓(xùn)練,然后,使用兩兩組合的 25 倍含有噪音的數(shù)據(jù)集進行微調(diào)。

在后面,我們會使用基于差異感知的模型融合方法來融合這三種模型,讓它們相得益彰。

3.3 Entity Track 階段

本階段的目標(biāo)是確定與當(dāng)前對話用戶的最后一輪查詢相關(guān)的實體。該階段可以縮小后續(xù)知識選擇的范圍。

我們使用啟發(fā)式方法為每個實體名稱建立一個詞典,然后基于 n-gram 匹配最后一輪對話中出現(xiàn)的實體。這種方法已經(jīng)能達到較為不錯的結(jié)果,驗證集性能為 F1=0.9676,accuracy=0.9398。

3.4 Entry Selection 階段

本階段目標(biāo)是選出與用戶查詢相關(guān)的知識條目。輸入是對話上文,以及知識候選 ,輸出為知識候選的子集 。我們使用同一個編碼器獲得兩者的表示 ,。然后將 ,, 拼接在一起計算相關(guān)性:

在訓(xùn)練時,我們將與 ground-truth 同一實體的知識和其它實體的知識按 1 : 1 比例構(gòu)造負例。在驗證時,我們使用 Entity Track 階段確定的實體中的知識作為知識候選。

與 Turn Detection 類似,我們同樣訓(xùn)練了 Seen expert,Unseen expert 和 De-noise expert 這三種模型,之后也使用基于差異感知的模型融合方法來融合這三種模型。

3.5 Response Generation 階段

本階段目標(biāo)是基于對話上下文 和相關(guān)知識片段 來創(chuàng)建響應(yīng)用戶請求的回復(fù) 。我們將 和 連接起來作為輸入,并使用經(jīng)預(yù)訓(xùn)練的生成模型來生成回復(fù)。

我們既考慮了 decoder-only 架構(gòu)的模型(如 GPT-2[17])也考慮了 encoder-decoder 架構(gòu)的模型(如 BART[18]和 T5[19])。

此外,為了降低 Entity Track 和 Entry Selection 階段對本階段的影響,我們在訓(xùn)練時使用了一些方法調(diào)整模型輸入:

拼接對話時額外添加實體名字段強化實體信息;

隨機丟棄 15% 的知識以讓模型在 Entry Selection 階段漏選知識時仍能取得良好的生成效果。

此外,我們還考慮了其他生成方式:

使用 KAT-TSLF 結(jié)構(gòu)[20],考察將對話上下文和全部候選知識條目作為輸入以及將對話上下文和 KS 階段選取的知識條目作為輸入,但是效果均不如 BART 模型;

使用在本任務(wù)上經(jīng)過 alpaca 微調(diào)的 LLAMA-13B[21],結(jié)合專門設(shè)計的 instruction,輸入對話上下文和所選的知識條目來生成回復(fù)。然而,正如近期研究顯示,LLM 存在幻覺問題[22],不能很好地執(zhí)行特定領(lǐng)域或知識密集型任務(wù)。因此該模型在本任務(wù)上其表現(xiàn)也不如 BART 模型。

3.6 基于差異感知的模型融合方法

為了融合 Seen expert,Unseen expert 和 De-noise expert 這三種模型,我們提出了一種基于差異感知的模型融合方法。

以 Entry Selection 階段訓(xùn)練出來的三種模型為例。對于驗證集的第 個對話實例,設(shè) 為 ground-truth 標(biāo)簽,它包含 條知識。我們用不同模型得到 條知識條目候選,并將它們按相關(guān)度降序排列。對于每個知識條目候選,我們?yōu)槠湓O(shè)置權(quán)重為它的相關(guān)度排序加一的倒數(shù)。例如 Seen-expert 模型得到的知識候選的第 條 權(quán)重為 。同理, 和 分別為 Unseen expert 和 De-noise expert 得到的知識候選和權(quán)重。

由此得到知識候選集合,對于第 條知識,將它的融合權(quán)重定義為,其中,如果存在 使 ,則 ,否則, 是超參數(shù),滿足 。

此外,我們還對權(quán)重設(shè)置了一個閾值,得到的超過閾值的知識條目集合 即為最終輸出。使用驗證集的 Recall/Precision/F1/EM 等指標(biāo)學(xué)習(xí)超參數(shù) ,整體算法如下圖所示:

020ac2be-779c-11ee-939d-92fbcf53809c.png

算法流程圖

該方法對于不同任務(wù)和不同數(shù)據(jù)集均可適用:

比如在 Entry Selection 階段,為同時保證知識選擇的準(zhǔn)確率和召回率,我們使用權(quán)重閾值來決定該知識是否相關(guān),而不是直接選擇 Top-N 權(quán)重的知識。

對于不同測試集,我們可以根據(jù)其中 unseen 對話條數(shù)的比例相應(yīng)調(diào)整驗證集中 unseen 的比例來學(xué)習(xí) 。通過 的調(diào)整,測試集中 unseen 對話條數(shù)比例越高,我們的 Unseen expert 在最后權(quán)重占比也就越大。

4 結(jié)果分析

本章分析我們的方法在驗證集及最終測試集上的表現(xiàn)。

4.1 Turn Detection 子任務(wù)

Turn Detection 子任務(wù)實驗結(jié)果如表 1 所示:

02223b7e-779c-11ee-939d-92fbcf53809c.png

表1 Turn Detection 子任務(wù)實驗結(jié)果

不難看出 baseline 在驗證集上已經(jīng)有了很高的性能。考慮到最終測試集中有 unseen 對話 ,于是我們使用基于差異感知的模型融合方法,力求在測試集的 unseen 對話上獲得更好的性能。

我們分別使用 Precision、Recall 和 F1 作為指標(biāo)來學(xué)習(xí)模型融合參數(shù),因為更高的 Recall 對 unseen 對話更有效,所以我們選擇 Recall 和 F1 訓(xùn)練的結(jié)果模型融合結(jié)果作為最終提交。

在最終測試集上,我們的方法在所有提交結(jié)果中 F1 指標(biāo)排名第一,Recall 指標(biāo)排名第二,三項總和排名第一。

4.2 Knowledge Selection 子任務(wù)

Knowledge Selection 子任務(wù)實驗結(jié)果如表 2 所示:

02277f26-779c-11ee-939d-92fbcf53809c.png

表2 knowledge selection 子任務(wù)實驗結(jié)果

可以看到:

我們的單個模型表現(xiàn)都只略好于 baseline,然而使用我們的模型融合方法后,性能大幅提高,這說明我們的模型融合方法能結(jié)合不同 expert 的優(yōu)勢,使得模型綜合性能大大提升;

分別使用不同的指標(biāo)學(xué)習(xí)模型融合參數(shù),就能得到相應(yīng)指標(biāo)下表現(xiàn)最好的模型。

我們依據(jù) 4 個指標(biāo)的驗證集結(jié)果總和選擇最后兩個結(jié)果(F1 和 EM)作為最終提交。在測試集上,我們的方法具有一致的性能,并且在很大程度上優(yōu)于 baseline。尤其在 EM 指標(biāo)上,我們的方法比 baseline 高出 14%。

為下一節(jié)表述方便,我們將這兩個結(jié)果表示為 KS-F1 和 KS-EM。

4.3 Response Generation 子任務(wù)

Response Generation 子任務(wù)實驗結(jié)果如表 3 所示:

023d225e-779c-11ee-939d-92fbcf53809c.png

表3 knowledge selection 子任務(wù)實驗結(jié)果

我們在生成回復(fù)過程中并沒有使用模型融合方法。上述結(jié)果可以反映出知識選擇子任務(wù)對生成任務(wù)的影響。

使用 KS-F1 的 BART-base 生成結(jié)果在所有指標(biāo)上都優(yōu)于 baseline。這一結(jié)果表明,KS-F1 提供了更高質(zhì)量的知識條目,并再次證明了我們模型融合方法的有效性。

BART-large 和 T5 作為更大的模型,在大多數(shù)指標(biāo)上都優(yōu)于 BART-base。此外,BART-large (KS-F1) 的 BLEU 指標(biāo)表現(xiàn)極好,在所有提交中排名第二。BART-large (KS-EM) 在 ROUGE 指標(biāo)上表現(xiàn)更好,T5-3B (KS-EM) 在 METEOR 指標(biāo)上更好。然而,T5 在測試集上的 BLEU 指標(biāo)表現(xiàn)不佳,與 BART-large 相比沒有明顯的優(yōu)勢。

5 總結(jié)

我們在 DSTC11-track5 競賽中提出了一種基于差異感知的模型融合方法。該方法很好的解決了競賽的兩大難點:

每個對話實例都與數(shù)量不定的若干條知識相關(guān),如何讓模型學(xué)習(xí)到這種分類能力。

訓(xùn)練集、驗證集和測試集分布差異較大,如何讓模型在 seen 對話和 unseen 對話上都能有不錯的表現(xiàn)。

最后我們獲得了客觀指標(biāo)排名第三的成績,這一成績證明了我們方法的有效性。

未來可以繼續(xù)嘗試的工作包括:

知識選擇子任務(wù):

可以將基于差異感知的模型融合方法同樣運用在 Entity Track 階段。

review 型的主觀知識和 FAQ 型的主觀知識具有不同的語義特性,比如 FAQ 的問句可能與用戶查詢有著較高的相似度,考慮如何分別對這兩類知識進行選擇。

回復(fù)生成子任務(wù):

可以考慮分別用對話歷史 encoder 和外部知識 encoder 對輸入進行編碼再對其加以融合,這可能有助于模型對于對話生成和知識整合兩部分的單獨學(xué)習(xí)。

可以考慮使用大模型對知識加以初步的理解,再用我們的回復(fù)生成模型根據(jù)被理解的信息進行回復(fù),這可能有助于增強模型的泛化能力。

可以考慮用對話狀態(tài)追蹤技術(shù)分析輸入的對話歷史,這可能有助于增強模型抗干擾能力。

針對前文提到的第三個難點,不同的主觀知識有不同的情感傾向??梢钥紤]使用特定的情感理解模型輔助生成的訓(xùn)練。

模型融合:

考慮進一步優(yōu)化我們的基于差異感知的模型融合方法,讓模型自動學(xué)習(xí)閾值。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3065

    瀏覽量

    48577
  • 追蹤技術(shù)
    +關(guān)注

    關(guān)注

    0

    文章

    19

    瀏覽量

    4285

原文標(biāo)題:基于主觀知識的任務(wù)型對話建模

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于CVR建模的多任務(wù)聯(lián)合學(xué)習(xí)訓(xùn)練方法——ESMM

    本文作者提出 ESMM 算法,通過定義新型多任務(wù)聯(lián)合訓(xùn)練的方式,以全新的視角對 CVR 進行建模
    的頭像 發(fā)表于 08-27 16:41 ?5396次閱讀
    基于CVR<b class='flag-5'>建模</b>的多<b class='flag-5'>任務(wù)</b>聯(lián)合學(xué)習(xí)訓(xùn)練方法——ESMM

    結(jié)合NLU在面向任務(wù)對話系統(tǒng)中的具體應(yīng)用進行介紹

    對面向任務(wù)對話系統(tǒng)來說,NLU模塊的主要任務(wù)是將用戶輸入的自然語言映射為用戶的意圖和相應(yīng)的槽位值。因此,在面向任務(wù)對話系統(tǒng)中,NLU模塊
    的頭像 發(fā)表于 03-21 09:31 ?5328次閱讀
    結(jié)合NLU在面向<b class='flag-5'>任務(wù)</b>的<b class='flag-5'>對話</b>系統(tǒng)中的具體應(yīng)用進行介紹

    【安富萊原創(chuàng)】【STemWin教程】第39章 對話框基礎(chǔ)知識

    第39章 對話框基礎(chǔ)知識 在上期教程我們講解了控件的基礎(chǔ)知識,本期教程我們接著講解一下對話框的基礎(chǔ)知識,有了這兩部分的基礎(chǔ)
    發(fā)表于 04-29 10:39

    基于任務(wù)鏈的實時多任務(wù)軟件可靠性建模

    提出了以實時多任務(wù)系統(tǒng)中的任務(wù)鏈為組件,任務(wù)鏈運行時間比例作為組件的權(quán)重系數(shù),建立實時多任務(wù)軟件的可靠性建模方法。該方法符合實時多
    發(fā)表于 03-03 11:47 ?16次下載

    知識型員工任務(wù)評價信息系統(tǒng)的指標(biāo)模型

    為解決企業(yè)人才評價和成長問題,以B/S模式構(gòu)建企業(yè)任務(wù)分派、評價及分析網(wǎng)絡(luò)信息系統(tǒng)。針對企業(yè)知識型員工的任務(wù)和創(chuàng)新業(yè)績管理構(gòu)建較為實用的評價、統(tǒng)計、分析指標(biāo)模型,
    發(fā)表于 04-11 10:05 ?24次下載

    四大維度講述了一個較為完整的智能任務(wù)對話全景

    這是一個非常典型的任務(wù)對話,它滿足兩個條件,第一,它有一個明確的目標(biāo);第二,它通過多輪對話交互來達成這個目標(biāo)。像這樣的任務(wù)
    的頭像 發(fā)表于 02-04 09:20 ?7072次閱讀
    四大維度講述了一個較為完整的智能<b class='flag-5'>任務(wù)</b><b class='flag-5'>型</b><b class='flag-5'>對話</b>全景

    強化學(xué)習(xí)應(yīng)用中對話系統(tǒng)的用戶模擬器

    近幾年來,強化學(xué)習(xí)在任務(wù)導(dǎo)向對話系統(tǒng)中得到了廣泛的應(yīng)用,對話系統(tǒng)通常被統(tǒng)計建模成為一個 馬爾科夫決策過程(Markov Decision
    發(fā)表于 08-06 14:16 ?1984次閱讀

    強化學(xué)習(xí)在智能對話上的應(yīng)用介紹

    本文主要介紹深度強化學(xué)習(xí)在任務(wù)對話上的應(yīng)用,兩者的結(jié)合點主要是將深度強化學(xué)習(xí)應(yīng)用于任務(wù)對話
    的頭像 發(fā)表于 12-10 19:02 ?989次閱讀

    對話中的情感分類任務(wù)建模為序列標(biāo)注 并對情感一致性進行建模

    本文是平安科技發(fā)表在ACL2020上的一篇論文,思路比較新穎,它將ERC任務(wù)看做序列標(biāo)注任務(wù),并對情感一致性進行建模。 ? 之前解決ERC的思路是利用上下文的話語特征預(yù)測對話中單個話語
    的頭像 發(fā)表于 01-18 16:24 ?3045次閱讀

    口語語言理解在任務(wù)對話系統(tǒng)中的探討

    1.1 研究背景與任務(wù)定義 口語語言理解在任務(wù)對話系統(tǒng)中扮演了一個非常重要的角色,其目的是識別出用戶的輸入文本中蘊含的意圖和提及到的槽位,一般被分為意圖識別和槽位填充兩個子
    的頭像 發(fā)表于 03-31 17:48 ?2397次閱讀
    口語語言理解在<b class='flag-5'>任務(wù)</b><b class='flag-5'>型</b><b class='flag-5'>對話</b>系統(tǒng)中的探討

    視覺問答與對話任務(wù)研究綜述

    視覺問答與對話是人工智能領(lǐng)堿的重要硏究任務(wù),是計算機視覺與自然語言處理交叉領(lǐng)域的代表性問題之一。視覺問答與對話任務(wù)要求機器根據(jù)指定的視覺圖像內(nèi)容,對單輪或多輪的自然語言問題進行作答。視
    發(fā)表于 04-08 10:33 ?10次下載
    視覺問答與<b class='flag-5'>對話</b><b class='flag-5'>任務(wù)</b>研究綜述

    NLP中基于聯(lián)合知識任務(wù)導(dǎo)向對話系統(tǒng)HyKnow

    Dialog Modeling with Hybrid 論文地址:https://arxiv.org/pdf/2105.06041v2.pdf 這篇文章提出了一個基于聯(lián)合知識任務(wù)導(dǎo)向對話
    的頭像 發(fā)表于 09-08 10:43 ?4236次閱讀

    基于知識對話生成任務(wù)

    基于知識對話生成任務(wù)(Knowledge-Grounded Dialogue Generation,KGD)是當(dāng)前對話系統(tǒng)的研究熱點,這個任務(wù)
    的頭像 發(fā)表于 09-05 09:54 ?1591次閱讀

    NVIDIA NeMo 如何支持對話式 AI 任務(wù)的訓(xùn)練與推理?

    ,開發(fā)和運行可落地的語音人工智能服務(wù)仍然是一項復(fù)雜而艱巨的任務(wù),通常需要面臨實時性、可理解性、自然性、低資源、魯棒性等挑戰(zhàn)。 本期分享我們邀請到了? NVIDIA 的解決方案架構(gòu)師丁文 ,分享如何使用 NVIDIA NeMo 進行對話式 AI
    的頭像 發(fā)表于 05-11 20:16 ?865次閱讀
    NVIDIA NeMo 如何支持<b class='flag-5'>對話</b>式 AI <b class='flag-5'>任務(wù)</b>的訓(xùn)練與推理?

    知識分享 | 輕松實現(xiàn)優(yōu)質(zhì)建模

    知識分享在知識分享欄目中,我們會定期與讀者分享來自MES模賽思的基于模型的軟件開發(fā)相關(guān)Know-How干貨,關(guān)注公眾號,隨時掌握基于模型的軟件設(shè)計的技術(shù)知識。輕松實現(xiàn)優(yōu)質(zhì)建模前言在基于
    的頭像 發(fā)表于 09-12 08:08 ?274次閱讀
    <b class='flag-5'>知識</b>分享 | 輕松實現(xiàn)優(yōu)質(zhì)<b class='flag-5'>建模</b>