0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

中國研究人員提出StructGPT,提高LLM對結(jié)構(gòu)化數(shù)據(jù)的零樣本推理能力

Qxwdz168 ? 來源:計算機視覺芯片設(shè)計 ? 2023-05-24 16:02 ? 次閱讀

大型語言模型 (LLM) 最近在自然語言處理 (NLP) 方面取得了重大進(jìn)展。現(xiàn)有研究表明,LLM) 具有很強的零樣本和少樣本能力,可以借助專門創(chuàng)建的提示完成各種任務(wù),而無需針對特定任務(wù)進(jìn)行微調(diào)。盡管它們很有效,但根據(jù)目前的研究,LLM 可能會產(chǎn)生與事實知識不符的不真實信息,并且無法掌握特定領(lǐng)域或?qū)崟r的專業(yè)知識。這些問題可以通過在LLM中添加外部知識源來修復(fù)錯誤的生成來直接解決。

4fed7bc6-fa05-11ed-90ce-dac502259ad0.jpg

結(jié)構(gòu)化數(shù)據(jù),如數(shù)據(jù)庫和知識圖譜,已被常規(guī)用于在各種資源中攜帶 LLM 所需的知識。但是,由于結(jié)構(gòu)化數(shù)據(jù)使用 LLM 在預(yù)訓(xùn)練期間未接觸過的獨特數(shù)據(jù)格式或模式,因此他們可能需要幫助才能理解它們。與純文本相反,結(jié)構(gòu)化數(shù)據(jù)以一致的方式排列并遵循特定的數(shù)據(jù)模型。數(shù)據(jù)表按行排列為列索引記錄,而知識圖 (KG) 經(jīng)常組織為描述頭尾實體之間關(guān)系的事實三元組。

盡管結(jié)構(gòu)化數(shù)據(jù)的體量往往非常巨大,但不可能容納輸入提示中的所有數(shù)據(jù)記錄(例如,ChatGPT 的最大上下文長度為 4096)。將結(jié)構(gòu)化數(shù)據(jù)線性化為 LLM 可以輕松掌握的語句是解決此問題的簡單方法。工具操作技術(shù)激勵他們增強 LLM 解決上述困難的能力。他們策略背后的基本思想是使用專門的接口來更改結(jié)構(gòu)化數(shù)據(jù)記錄(例如,通過提取表的列)。在這些接口的幫助下,他們可以更精確地定位完成特定活動所需的證據(jù),并成功地限制數(shù)據(jù)記錄的搜索范圍。

來自中國人民大學(xué)、北京市大數(shù)據(jù)管理與分析方法重點實驗室和中國電子科技大學(xué)的研究人員在這項研究中著重于為某些任務(wù)設(shè)計合適的接口,并將它們用于 LLM 的推理,這些接口是應(yīng)用界面增強方法需要解決的兩個主要問題。以這種方式,LLM 可以根據(jù)從界面收集的證據(jù)做出決定。為此,他們在本研究中提供了一種稱為 StructGPT 的迭代閱讀然后推理 (IRR) 方法,用于解決基于結(jié)構(gòu)化數(shù)據(jù)的任務(wù)。他們的方法考慮了完成各種活動的兩個關(guān)鍵職責(zé):收集相關(guān)數(shù)據(jù)(閱讀)和假設(shè)正確的反應(yīng)或為下一步行動制定策略(推理)。

據(jù)他們所知,這是第一項著眼于如何使用單一范式幫助 LLM 對各種形式的結(jié)構(gòu)化數(shù)據(jù)(例如表、KG 和 DB)進(jìn)行推理的研究。從根本上說,他們將 LLM 的閱讀和推理兩個過程分開:他們使用結(jié)構(gòu)化數(shù)據(jù)接口來完成精確、有效的數(shù)據(jù)訪問和過濾,并依靠他們的推理能力來確定下一步的行動或查詢的答案。

對于外部接口,他們特別建議調(diào)用線性化生成過程,以幫助 LLM 理解結(jié)構(gòu)化數(shù)據(jù)并做出決策。通過使用提供的接口重復(fù)此過程,他們可能會逐漸接近對查詢的期望響應(yīng)。

他們對各種任務(wù)(例如基于知識圖譜的問答、基于表的問答和基于數(shù)據(jù)庫的文本到 SQL)進(jìn)行了全面試驗,以評估其技術(shù)的有效性。八個數(shù)據(jù)集的實驗結(jié)果表明,他們建議的方法可能會顯著提高 ChatGPT 在結(jié)構(gòu)化數(shù)據(jù)上的推理性能,甚至達(dá)到與全數(shù)據(jù)監(jiān)督調(diào)優(yōu)方法競爭的水平。

? KGQA。他們的方法使 KGQA 挑戰(zhàn)的 WebQSP 上的 Hits@1 增加了 11.4%。借助他們的方法,ChatGPT 在多跳 KGQA 數(shù)據(jù)集(例如 MetaQA-2hop 和 MetaQA-3hop)中的性能可能分別提高了 62.9% 和 37.0%。

? 質(zhì)量保證表。在 TableQA 挑戰(zhàn)中,與直接使用 ChatGPT 相比,他們的方法在 WTQ 和 WikiSQL 中將標(biāo)注準(zhǔn)確度提高了大約 3% 到 5%。在 TabFact 中,他們的方法將表格事實驗證的準(zhǔn)確性提高了 4.2%。

? 文本到SQL。在 Text-to-SQL 挑戰(zhàn)中,與直接使用 ChatGPT 相比,他們的方法將三個數(shù)據(jù)集的執(zhí)行準(zhǔn)確性提高了約 4%。

作者已經(jīng)發(fā)布了 Spider 和 TabFact 的代碼,可以幫助理解 StructGPT 的框架,整個代碼庫尚未發(fā)布。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)管理
    +關(guān)注

    關(guān)注

    1

    文章

    283

    瀏覽量

    19583
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    586

    瀏覽量

    13464
  • 知識圖譜
    +關(guān)注

    關(guān)注

    2

    文章

    132

    瀏覽量

    7673
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    252

    瀏覽量

    285

原文標(biāo)題:中國研究人員提出StructGPT,提高LLM對結(jié)構(gòu)化數(shù)據(jù)的零樣本推理能力

文章出處:【微信號:計算機視覺芯片設(shè)計,微信公眾號:計算機視覺芯片設(shè)計】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    結(jié)構(gòu)化布線系統(tǒng)有哪些難題

    在15年建筑物整修周期內(nèi)限制系統(tǒng)的升級。經(jīng)過精心設(shè)計的結(jié)構(gòu)化布線系統(tǒng)可以承受超過大多數(shù)局域網(wǎng)傳輸速率10~15倍的數(shù)據(jù)流量。這將允許在不改變結(jié)構(gòu)化布線系統(tǒng)的情況下使用新型網(wǎng)絡(luò)技術(shù)?! ?.通用
    發(fā)表于 05-19 13:46

    泰克儀器助力研究人員首次通過太赫茲復(fù)用器實現(xiàn)超高速數(shù)據(jù)傳輸

    通過使用基于光子的THz電路來橋接光纖和無線電的世界,以實現(xiàn)超高數(shù)據(jù)速率。但是,不管要實現(xiàn)什么的系統(tǒng),信號復(fù)用和解復(fù)用系統(tǒng)(復(fù)用器/解復(fù)用器)都是基本要求。研究人員使用兩個平行的金屬板的波導(dǎo)系統(tǒng),把
    發(fā)表于 08-31 15:58

    TrustZone結(jié)構(gòu)化消息是什么?

    大家好,我已閱讀任何與TrustZone相關(guān)的內(nèi)容,但我無法弄清楚這兩個世界是如何相互溝通的。我所能找到的只是TrustZone API規(guī)范中的內(nèi)容:客戶端和服務(wù)可以通過兩種機制進(jìn)行通信:結(jié)構(gòu)化
    發(fā)表于 03-20 08:58

    結(jié)構(gòu)化設(shè)計分為哪幾部分?結(jié)構(gòu)化設(shè)計的要求有哪些

    結(jié)構(gòu)化設(shè)計分為哪幾部分?結(jié)構(gòu)化設(shè)計的要求有哪些?結(jié)構(gòu)化設(shè)計主要包括哪些部分?
    發(fā)表于 12-23 06:15

    白光LED結(jié)構(gòu)化涂層制備及其應(yīng)用研究

      實驗名稱:基于電場誘導(dǎo)的白光LED結(jié)構(gòu)化涂層制備及其應(yīng)用研究  研究方向:電場誘導(dǎo)結(jié)構(gòu)制備工藝試驗研究  實驗內(nèi)容:  本文主要圍繞:平
    發(fā)表于 03-29 15:44

    什么叫結(jié)構(gòu)化的算法_算法和結(jié)構(gòu)化數(shù)據(jù)初識

    結(jié)構(gòu)化算法是由一些基本結(jié)構(gòu)順序組成的,就是把一個大的功能的實現(xiàn)分隔為許多個小功能的實現(xiàn)。在基本結(jié)構(gòu)之間不存在向前或向后的跳轉(zhuǎn),流程的轉(zhuǎn)移只存在于一個基本的結(jié)構(gòu)范圍內(nèi)。一個非
    發(fā)表于 01-03 16:09 ?1.2w次閱讀
    什么叫<b class='flag-5'>結(jié)構(gòu)化</b>的算法_算法和<b class='flag-5'>結(jié)構(gòu)化</b><b class='flag-5'>數(shù)據(jù)</b>初識

    融合樣本學(xué)習(xí)和小樣本學(xué)習(xí)的弱監(jiān)督學(xué)習(xí)方法綜述

    等現(xiàn)實挑戰(zhàn),很多學(xué)者針對數(shù)據(jù)依賴小的弱監(jiān)督學(xué)習(xí)方法開展研究,出現(xiàn)了小樣本學(xué)習(xí)、樣本學(xué)習(xí)等典型研究
    發(fā)表于 02-09 11:22 ?2169次閱讀
    融合<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學(xué)習(xí)和小<b class='flag-5'>樣本</b>學(xué)習(xí)的弱監(jiān)督學(xué)習(xí)方法綜述

    基于深度學(xué)習(xí)的樣本SAR圖像目標(biāo)識別

    將該框架推廣到廣義樣本學(xué)習(xí),并針對域偏置問題,提出了- -種基于語義知識的域檢測方法。利用域檢測方法可以先將未見類別和已見類別進(jìn)行區(qū)分,然后用兩個模型分別在兩個域進(jìn)行分類,從而有效緩解域偏置問題。
    發(fā)表于 12-29 14:27 ?613次閱讀

    形狀感知樣本語義分割

    由于大規(guī)模視覺語言預(yù)訓(xùn)練取得了令人矚目的進(jìn)展,最近的識別模型可以以驚人的高準(zhǔn)確度對任意對象進(jìn)行樣本和開放式分類。
    的頭像 發(fā)表于 04-28 11:26 ?765次閱讀
    形狀感知<b class='flag-5'>零</b><b class='flag-5'>樣本</b>語義分割

    一個通用的自適應(yīng)prompt方法,突破了樣本學(xué)習(xí)的瓶頸

    為了解決這個問題,這篇研究提出了一種Universal Self-adaptive Prompting (USP)方法,對LLMs的樣本學(xué)習(xí)進(jìn)行了優(yōu)化,同時也適用于少
    的頭像 發(fā)表于 06-01 14:48 ?688次閱讀
    一個通用的自適應(yīng)prompt方法,突破了<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學(xué)習(xí)的瓶頸

    基準(zhǔn)數(shù)據(jù)集(CORR2CAUSE)如何測試大語言模型(LLM)的純因果推理能力

    ? 因果推理是人類智力的標(biāo)志之一。因果關(guān)系NLP領(lǐng)域近年來引起了人們的極大興趣,但其主要依賴于從常識知識中發(fā)現(xiàn)因果關(guān)系。研究提出了一個基準(zhǔn)數(shù)據(jù)
    的頭像 發(fā)表于 06-20 15:39 ?1694次閱讀
    基準(zhǔn)<b class='flag-5'>數(shù)據(jù)</b>集(CORR2CAUSE)如何測試大語言模型(<b class='flag-5'>LLM</b>)的純因果<b class='flag-5'>推理</b><b class='flag-5'>能力</b>

    什么是樣本學(xué)習(xí)?為什么要搞樣本學(xué)習(xí)?

    樣本分類的技術(shù)目前正處于高速發(fā)展時期, 所涉及的具體應(yīng)用已經(jīng)從最初的圖像分類任務(wù)擴(kuò)展到了其他計算機視覺任務(wù)乃至自然語言處理等多個相關(guān)領(lǐng)域。 對此, 本文將其稱為廣義樣本分類。 相應(yīng)
    發(fā)表于 09-22 11:10 ?1965次閱讀
    什么是<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學(xué)習(xí)?為什么要搞<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學(xué)習(xí)?

    跨語言提示:改進(jìn)跨語言樣本思維推理

    進(jìn)一步地,提出了Cross-Lingual Self-consistent Prompting (CLSP),利用不同語言專家的知識和不同語言間更加多樣的思考方式,集成了多個推理路徑,顯著地提高了self-consistency
    的頭像 發(fā)表于 11-08 16:59 ?607次閱讀
    跨語言提示:改進(jìn)跨語言<b class='flag-5'>零</b><b class='flag-5'>樣本</b>思維<b class='flag-5'>推理</b>

    什么是LLMLLM的工作原理和結(jié)構(gòu)

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領(lǐng)域的研究熱點。LLM以其強大的文本生成、理解和推理
    的頭像 發(fā)表于 07-02 11:45 ?5641次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點,旨在提高模型在處理復(fù)雜任務(wù)時的效率和響應(yīng)速度。以下是對LLM大模型
    的頭像 發(fā)表于 07-24 11:38 ?645次閱讀