0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TaD+RAG-緩解大模型“幻覺”的組合新療法

京東云 ? 來源:jf_75140285 ? 作者:jf_75140285 ? 2024-07-16 15:01 ? 次閱讀

TaD:任務(wù)感知解碼技術(shù)(Task-aware Decoding,簡稱TaD),京東聯(lián)合清華大學(xué)針對大語言模型幻覺問題提出的一項技術(shù),成果收錄于IJCAI2024。

RAG:檢索增強生成技術(shù)(Retrieval-augmented Generation,簡稱RAG),是業(yè)內(nèi)解決LLM幻覺問題最有效的系統(tǒng)性方案。

1. 背景介紹

近來,以ChatGPT為代表的生成式大語言模型(Large Language Model,簡稱LLM)掀起了新一輪AI熱潮,并迅速席卷了整個社會的方方面面。得益于前所未有的模型規(guī)模、訓(xùn)練數(shù)據(jù),以及引入人類反饋的訓(xùn)練新范式,LLM在一定程度上具備對人類意圖的理解和甄別能力,可實現(xiàn)生動逼真的類人對話互動,其回答的準確率、邏輯性、流暢度都已經(jīng)無限接近人類水平。此外,LLM還出現(xiàn)了神奇的“智能涌現(xiàn)”現(xiàn)象,其產(chǎn)生的強大的邏輯推理、智能規(guī)劃等能力,已逐步應(yīng)用到智能助理、輔助創(chuàng)作、科研啟發(fā)等領(lǐng)域。京東在諸多核心業(yè)務(wù)如AI搜索、智能客服、智能導(dǎo)購、創(chuàng)意聲稱、推薦/廣告、風(fēng)控等場景下,均對LLM的落地應(yīng)用進行了深入探索。這一舉措提升了業(yè)務(wù)效率,增強了用戶體驗。

盡管具備驚艷的類人對話能力,大語言模型的另外一面——不準確性,卻逐漸成為其大規(guī)模落地的制約和瓶頸。通俗地講,LLM生成不準確、誤導(dǎo)性或無意義的信息被稱為“幻覺”,也就是常說的“胡說八道”。當(dāng)然也有學(xué)者,比如OpenAI的CEO Sam Altman,將LLM產(chǎn)生的“幻覺”視為“非凡的創(chuàng)造力”。但是在大多數(shù)場景下,模型提供正確回答的能力至關(guān)重要,因此幻覺常常被認為是一種缺陷;尤其是在一些對輸出內(nèi)容準確性要求較高的場景下,比如醫(yī)療診斷、法律咨詢、工業(yè)制造、售后客服等,幻覺問題導(dǎo)致的后果往往是災(zāi)難性的。

本文主要探索針對LLM幻覺問題的解決方案。

2. 相關(guān)調(diào)研

眾所周知,大語言模型的本質(zhì)依然是語言模型(Language Model,簡稱LM),該模型可通過計算句子概率建模自然語言概率分布。具體而言,LM基于統(tǒng)計對大量語料進行分析,按順序預(yù)測下一個特定字/詞的概率。LLM的主要功能是根據(jù)輸入文本生成連貫且上下文恰當(dāng)?shù)幕貜?fù),即生成與人類語言和寫作的模式結(jié)構(gòu)極為一致的文本。注意到,LLM并不擅長真正理解或傳遞事實信息。故而其幻覺不可徹底消除。亞利桑那州立大學(xué)教授Subbarao Kambhampati認為:LLM所生成的全都是幻覺,只是有時幻覺碰巧和你的現(xiàn)實一致而已。新加坡國立大學(xué)計算學(xué)院的Ziwei Xu和Sanjay Jain等也認為LLM的幻覺無法完全消除[1]。

雖然幻覺問題無法徹底消除,但依然可以進行優(yōu)化和緩解,業(yè)內(nèi)也有不少相關(guān)的探索。有研究[2]總結(jié)了LLM產(chǎn)生幻覺的三大來源:數(shù)據(jù)、訓(xùn)練和推理,并給出了對應(yīng)的緩解策略。

2.1 數(shù)據(jù)引入的幻覺

“病從口入”,訓(xùn)練數(shù)據(jù)是LLM的糧食,數(shù)據(jù)缺陷是使其致幻的一大原因。數(shù)據(jù)缺陷既包括數(shù)據(jù)錯誤、缺失、片面、過期等,也包括由于領(lǐng)域數(shù)據(jù)不足所導(dǎo)致的模型所捕獲的事實知識利用率較低等問題。以下是針對訓(xùn)練數(shù)據(jù)類幻覺的一些技術(shù)方案:

數(shù)據(jù)清洗

針對數(shù)據(jù)相關(guān)的幻覺,最直接的方法就是收集更多高質(zhì)量的事實數(shù)據(jù),并進行數(shù)據(jù)清理。訓(xùn)練數(shù)據(jù)量越大、質(zhì)量越高,最終訓(xùn)練得到的LLM出現(xiàn)幻覺的可能性就可能越小[3]。但是,訓(xùn)練數(shù)據(jù)總有一定的覆蓋范圍和時間邊界,不可避免地形成知識邊界,單純從訓(xùn)練數(shù)據(jù)角度解決幻覺問題,并不是一個高性價比的方案。

針對“知識邊界”問題,有兩種主流方案:一種是知識編輯,即直接編輯模型參數(shù)彌合知識鴻溝。另一種是檢索增強生成(Retrieval-augmented Generation,簡稱RAG),保持模型參數(shù)不變,引入第三方獨立的知識庫。

知識編輯

知識編輯有兩種方法:1)編輯模型參數(shù)的方法可以細粒度地調(diào)整模型的效果,但難以實現(xiàn)知識間泛化能力,且不合理的模型編輯可能會導(dǎo)致模型產(chǎn)生有害或不適當(dāng)?shù)妮敵鯷4];2)外部干預(yù)的方法(不編輯模型參數(shù))對大模型通用能力影響較小,但需要引入一個單獨的模塊,且需要額外的資源訓(xùn)練這個模塊。

如何保持原始LLM能力不受影響的前提下,實現(xiàn)知識的有效更新,是LLM研究中的重要挑戰(zhàn)[2]。鑒于知識編輯技術(shù)會給用戶帶來潛在風(fēng)險,無論學(xué)術(shù)界還是業(yè)界都建議使用包含明確知識的方法,比如RAG。

檢索增強生成(RAG)

RAG引入信息檢索過程,通過第三方數(shù)據(jù)庫中檢索相關(guān)信息來增強LLM的生成過程,從而提高準確性和魯棒性,降低幻覺。由于接入外部實時動態(tài)數(shù)據(jù),RAG在理論上沒有知識邊界的限制,且無需頻繁進行LLM的訓(xùn)練,故已經(jīng)成為LLM行業(yè)落地最佳實踐方案。下圖1為RAG的一個標準實現(xiàn)方案[11],用戶的Query首先會經(jīng)由信息檢索模塊處理并召回相關(guān)文檔;隨后RAG方法將Prompt、用戶query和召回文檔一起輸入LLM,最終由LLM生成最終的答案。

圖1. RAG架構(gòu)圖

wKgZomaWGrWAeQ3pAAhsPvcXsXM866.png

RAG借助信息檢索,引入第三方事實知識,大大緩解了單純依靠LLM生成答案而產(chǎn)生的幻覺,但由LLM生成的最終輸出仍然有較大概率產(chǎn)生幻覺。因此,緩解LLM本身的幻覺,對整個RAG意義重大。

2.2 模型訓(xùn)練引入的幻覺

LLM的整個訓(xùn)練過程,都可能會引入幻覺。首先,LLM通常是transformer結(jié)構(gòu)的單向語言模型,通過自回歸的方式建模目標,天然存在單向表示不足、注意力缺陷[6]、曝光偏差[7]等問題;其次,在文本對齊階段,無論是監(jiān)督微調(diào)(SFT)還是人類反饋的強化學(xué)習(xí)(RLHF),都有可能出現(xiàn)有標注數(shù)據(jù)超出LLM知識邊界、或者與LLM內(nèi)在知識不一致的問題;這一系列對齊問題很可能放大LLM本身的幻覺風(fēng)險[8]。

對于訓(xùn)練過程引入的幻覺,可以通過優(yōu)化模型結(jié)構(gòu)、注意力機制、訓(xùn)練目標、改進偏好模型等一系列手段進行緩解。但這些技術(shù)都缺乏通用性,難以在現(xiàn)有的LLM上進行遷移,實用性不高。

2.3 推理過程引入的幻覺

推理過程引入的幻覺,一方面源自于解碼策略的抽樣隨機性,它與幻覺風(fēng)險的增加呈正相關(guān),尤其是采樣溫度升高導(dǎo)致低頻token被采樣的概率提升,進一步加劇了幻覺風(fēng)險[9]。另一方面,注意力缺陷如上下文注意力不足、Softmax瓶頸導(dǎo)致的不完美解碼都會引入幻覺風(fēng)險。

層對比解碼(DoLa)

針對推理過程解碼策略存在的缺陷,一項具有代表性且較為有效的解決方案是層對比解碼(Decoding by Contrasting Layers, 簡稱DoLa)[9]。模型可解釋性研究發(fā)現(xiàn),在基于Transformer的語言模型中,下層transformer編碼“低級”信息(詞性、語法),而上層中包含更加“高級”的信息(事實知識)[10]。DoLa主要通過強調(diào)較上層中的知識相對于下層中的知識的“進步”,減少語言模型的幻覺。具體地,DoLa通過計算上層與下層之間的logits差,獲得輸出下一個詞的概率。這種對比解碼方法可放大LLM中的事實知識,從而減少幻覺。

圖2. DoLa示意圖

wKgaomaWGraAE16WAAKK4ltDQmY480.png

上圖2是DoLa的一個簡單直觀的示例?!癝eattle”在所有層上都保持著很高的概率,可能僅僅因為它是一個從語法角度上講比較合理的答案。當(dāng)上層通過層對比解碼注入更多的事實知識后,正確答案“Olympia”的概率會增加??梢?,層對比解碼(DoLa)技術(shù)可以揭示真正的答案,更好地解碼出LLM中的事實知識,而無需檢索外部知識或進行額外微調(diào)。此外,DoLa還有動態(tài)層選擇策略,保證最上層和中間層的輸出差別盡可能大。

可見,DoLa的核心思想是淡化下層語言/語法知識,盡可能放大事實性知識,但這可能導(dǎo)致生成內(nèi)容存在語法問題;在實驗中還發(fā)現(xiàn)DoLa會傾向于生成重復(fù)的句子,尤其是長上下文推理場景。此外,DoLa不適用有監(jiān)督微調(diào),限制了LLM的微調(diào)優(yōu)化。

3. 技術(shù)突破

通過以上分析,RAG無疑是治療LLM幻覺的一副妙方,它如同LLM的一個強大的外掛,讓其在處理事實性問題時如虎添翼。但RAG的最終輸出仍然由LLM生成,緩解LLM本身的幻覺也極為重要,而目前業(yè)內(nèi)針對LLM本身幻覺的技術(shù)方案存在成本高、實用落地難、易引入潛在風(fēng)險等問題。

鑒于此,京東零售聯(lián)合清華大學(xué)進行相關(guān)探索,提出任務(wù)感知解碼(Task-aware Decoding,簡稱TaD)技術(shù)[12](成果收錄于IJCAI2024),可即插即用地應(yīng)用到任何LLM上,通過對比有監(jiān)督微調(diào)前后的輸出,緩解LLM本身的幻覺。該方法通用性強,在多種不同LLM結(jié)構(gòu)、微調(diào)方法、下游任務(wù)和數(shù)據(jù)集上均有效,具有廣泛的適用場景。

任務(wù)感知解碼(TaD)技術(shù)

關(guān)于LLM知識獲取機制的一些研究表明,LLM的輸出并不能總是準確反映它們所擁有的知識,即使一個模型輸出錯誤,它仍然可能擁有正確的知識[13]。此項工作主要探索LLM在保留預(yù)訓(xùn)練學(xué)到的公共知識的同時,如何更好地利用微調(diào)過程中習(xí)得的下游任務(wù)特定領(lǐng)域知識,進而提升其在具體任務(wù)中的效果,緩解LLM幻覺。

TaD的基本原理如圖3所示。微調(diào)前LLM和微調(diào)后LLM的輸出詞均為“engage”,但深入探究不難發(fā)現(xiàn)其相應(yīng)的預(yù)測概率分布發(fā)生了明顯的改變,這反映了LLM在微調(diào)期間試圖將其固有知識盡可能地適應(yīng)下游任務(wù)的特定領(lǐng)域知識。具體而言,經(jīng)過微調(diào),更加符合用戶輸入要求(“專業(yè)的”)的詞“catalyze”的預(yù)測概率明顯增加,而更通用的反映預(yù)訓(xùn)練過程習(xí)得的知識卻不能更好滿足下游任務(wù)用戶需求的詞“engage”的預(yù)測概率有所降低。TaD巧妙利用微調(diào)后LLM與微調(diào)前LLM的輸出概率分布的差異來構(gòu)建知識向量,得到更貼切的輸出詞“catalyze”,進而增強LLM的輸出質(zhì)量,使其更符合下游任務(wù)偏好,改善幻覺。

圖3. TaD原理圖

wKgZomaWGreAMSJrAAOb_6t1gMM832.png

知識向量

為了直觀理解LLM在微調(diào)階段學(xué)習(xí)到的特定領(lǐng)域知識,我們引入知識向量的概念,具體如圖4所示。微調(diào)前LLM的輸出條件概率分布為pθ,微調(diào)后LLM的輸出條件概率分布為 p?。知識向量反應(yīng)了微調(diào)前后LLM輸出詞的條件概率分布變化,也代表著LLM的能力從公共知識到下游特定領(lǐng)域知識的適應(yīng)?;赥aD技術(shù)構(gòu)建的知識向量可強化LLM微調(diào)過程中習(xí)得的領(lǐng)域特定知識,進一步改善LLM幻覺。

圖4. 知識向量

wKgaomaWGriAU0WCAAFSxBzLxSM601.png

特別地,當(dāng)微調(diào)數(shù)據(jù)較少時,LLM的輸出條件概率分布遠遠達不到最終訓(xùn)練目標。在此情形下,TaD技術(shù)增強后的知識向量可以加強知識對下游任務(wù)的適應(yīng),在訓(xùn)練數(shù)據(jù)稀缺場景下帶來更顯著的效果提升。

實驗結(jié)果

1)針對不同的LLM,采用LoRA、AdapterP等方式、在不同的任務(wù)上進行微調(diào),實驗結(jié)果如下表1和表2所示。注意到,TaD技術(shù)均取得了明顯的正向效果提升。

表1. Multiple Choices和CBQA任務(wù)結(jié)果

wKgZomaWGrqAHf2cAAQcBFlCcO4308.png

表2. 更具挑戰(zhàn)性的推理任務(wù)結(jié)果

wKgaomaWGsCAc8otAAMJWjQz2RA158.png

2)相比較其他對比解碼技術(shù),TaD技術(shù)在絕大部分場景下效果占優(yōu),具體如表3所示。需要特別強調(diào)的一點是,其他技術(shù)可能會導(dǎo)致LLM效果下降,TaD未表現(xiàn)上述風(fēng)險。

表3. 不同對比解碼技術(shù)結(jié)果

wKgZomaWGsKAU9mMAALByga_41g758.png

3)針對不同比例的訓(xùn)練樣本進行實驗,發(fā)現(xiàn)一個非常有趣的結(jié)果:訓(xùn)練樣本越少,TaD技術(shù)帶來的收益越大,具體如表4所示。因此,即使在有限的訓(xùn)練數(shù)據(jù)下,TaD技術(shù)也可以將LLM引導(dǎo)到正確的方向。由此可見,TaD技術(shù)能夠在一定程度上突破訓(xùn)練數(shù)據(jù)有限情形下LLM的效果限制。

表4. 不同數(shù)據(jù)比例下的結(jié)果

wKgaomaWGsOAZqXcAAESKabkYJ8321.png

可見,TaD可以即插即用,適用于不同LLM、不同微調(diào)方法、不同下游任務(wù),突破了訓(xùn)練數(shù)據(jù)有限的瓶頸,是一項實用且易用的改善LLM自身幻覺的技術(shù)。

4. 落地案例

自從以ChatGPT為代表的LLM誕生之后,針對其應(yīng)用的探索一直如火如荼,然而其幻覺已然成為限制落地的最大缺陷。綜上分析,目前檢索增強生成(RAG)+低幻覺的LLM是緩解LLM幻覺的最佳組合療法。在京東通用知識問答系統(tǒng)的構(gòu)建中,我們通過TaD技術(shù)實現(xiàn)低幻覺的LLM,系統(tǒng)層面基于RAG注入自有事實性知識,具體方案如圖5所示,最大程度緩解了LLM的生成幻覺 。

圖5. TaD+RAG的知識問答系統(tǒng)

wKgZomaWGsSAJah5AAEm_E-F888876.png

目前知識問答系統(tǒng)已經(jīng)接入京東6000+業(yè)務(wù)場景,為用戶提供準確、高效、便捷的知識性問答,大大節(jié)省了運營、運維等人力開銷。

5. 思考與展望

如果LLM依然按照語言模型的模式發(fā)展,那么其幻覺就無法徹底消除。目前業(yè)內(nèi)還沒有一種超脫語言模型范疇,且可以高效完成自然語言相關(guān)的任務(wù)新的模型結(jié)構(gòu)。因此,緩解LLM的生成幻覺,仍然是未來一段時期的探索路徑。以下是我們在系統(tǒng)、知識、LLM三個層面的一些簡單的思考,希望能夠拋磚引玉。

系統(tǒng)層面——RAG+Agent+More的復(fù)雜系統(tǒng)

RAG技術(shù)確實在一些常見的自然語言處理任務(wù)中發(fā)揮出色的作用,尤其是針對簡單問題和小型文檔集。但是遇到一些復(fù)雜的問題和大型文檔集時,RAG技術(shù)就顯得力不從心。近期有一些研究認為RAG+Agent才是未來的趨勢[14],Agent能夠輔助理解并規(guī)劃復(fù)雜的任務(wù)。我們認為可能未來的系統(tǒng)可能不僅僅局限于Agent和RAG,可能還要需要多種多樣的內(nèi)外工具調(diào)用、長短期記憶模塊、自我學(xué)習(xí)模塊......

知識層面——與LLM深度融合的注入方式

任何一個深度模型都會存在知識邊界的問題,LLM也不例外。RAG通過檢索的方式召回外部知識,以Prompt的形式送入LLM進行最終的理解和生成,一定程度上緩解LLM知識邊界問題。但是這種知識注入的方式和LLM生成的過程是相對割裂的。即便已經(jīng)召回了正確的知識,LLM也可能因為本身知識邊界問題生成錯誤的回答。因此探索如何實現(xiàn)外部知識和LLM推理的深度融合,或許是未來的一個重要的課題。

LLM層面——低幻覺LLM

LLM本身的幻覺是問題的根本和瓶頸,我們認為隨著LLM更廣泛的應(yīng)用,類似TaD可緩解LLM本身幻覺的探索一定會成為業(yè)內(nèi)的更大的研究熱點。

6. 結(jié)語

緩解LLM幻覺一定是個復(fù)雜的系統(tǒng)問題,我們可以綜合不同的技術(shù)方案、從多個層級協(xié)同去降低LLM的幻覺。雖然現(xiàn)有方案無法保證從根本上解決幻覺,但隨著不斷探索,我們堅信業(yè)內(nèi)終將找到限制LLM幻覺的更有效的方案,也期待屆時LLM相關(guān)應(yīng)用的再次爆發(fā)式增長。

京東零售一直走在AI技術(shù)探索的前沿,隨著公司在AI領(lǐng)域的不斷投入和持續(xù)深耕,我們相信京東必將產(chǎn)出更多先進實用的技術(shù)成果,為行業(yè)乃至整個社會帶來深遠持久的影響。


【參考文獻】

[1] Hallucination is Inevitable: An Innate Limitation of Large Language Models

[2] A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions

[3] Unveiling the Causes of LLM Hallucination and Overcoming LLM Hallucination

[4] Editing Large Language Models: Problems, Methods, and Opportunities

[5] ACL 2023 Tutorial: Retrieval-based Language Models and Applications

[6] Theoretical Limitations of Self-Attention in Neural Sequence Models

[7] Sequence level training with recurrent neural networks.

[8] Discovering language model behaviors with model-written evaluations

[9] Dola: Decoding by contrasting layers improves factuality in large language models

[10] Bert rediscovers the classical nlp pipeline

[11] Retrieval-Augmented Generation for Large Language Models: A Survey

[12] TaD: A Plug-and-Play Task-Aware Decoding Method toBetter Adapt LLM on Downstream Tasks

[13] Inference-time intervention: Eliciting truthful answers from a language model

[14] Beyond RAG: Building Advanced Context-Augmented LLM Applications

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29342

    瀏覽量

    267627
  • ChatGPT
    +關(guān)注

    關(guān)注

    28

    文章

    1523

    瀏覽量

    7246
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2203

    瀏覽量

    2227
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    251

    瀏覽量

    285
收藏 人收藏

    評論

    相關(guān)推薦

    【大語言模型:原理與工程實踐】大語言模型的應(yīng)用

    幻覺”。此外,大語言模型僅限于生成文字,無法獨立調(diào)用API以滿足多樣化需求。例如,當(dāng)詢問“查詢今天的天氣”時,它會拒絕請求,缺乏根據(jù)環(huán)境反饋調(diào)整行為的能力。動態(tài)調(diào)整行為及克服“幻覺”現(xiàn)象是大語言
    發(fā)表于 05-07 17:21

    人類新療法的第一項研究證明了這是一種無創(chuàng)、無害的癌癥殺手

    點擊上方“IEEE電氣電子工程師學(xué)會”即可訂閱公眾號。網(wǎng)羅全球科技前沿動態(tài),為科研創(chuàng)業(yè)打開腦洞。對人類新療法
    的頭像 發(fā)表于 08-10 10:32 ?2250次閱讀

    新興的人工智能(AI)技術(shù)具有加速和轉(zhuǎn)變對分子療法的搜索的潛力

    當(dāng)前的Covid-19危機凸顯了對快速發(fā)現(xiàn)新興疾病的新療法的需求。但是,調(diào)整大規(guī)模的實驗工作以適應(yīng)不斷變化的環(huán)境不可能一overnight而就。對敏捷性的緊迫呼吁表明,我們需要采取新的方法來搜索和識別分子療法療法
    發(fā)表于 06-08 11:19 ?513次閱讀

    基于磁共振成像的心房顫動新療法

    研究人員開發(fā)了一種基于磁共振成像的新療法來探測和評估經(jīng)歷了心房顫動治療的患者在左心房壁上的傷害
    發(fā)表于 07-21 15:03 ?686次閱讀

    模型現(xiàn)存的10個問題和挑戰(zhàn)

    來源:Coggle數(shù)據(jù)科學(xué)大模型現(xiàn)存的問題和挑戰(zhàn)這篇文章介紹了關(guān)于大型語言模型(LLMs)研究中的十個主要方向和問題:1.減少和度量幻覺幻覺指的是AI
    的頭像 發(fā)表于 09-04 16:42 ?1658次閱讀
    大<b class='flag-5'>模型</b>現(xiàn)存的10個問題和挑戰(zhàn)

    最新研究綜述——探索基礎(chǔ)模型中的“幻覺”現(xiàn)象

    這種“幻覺”現(xiàn)象可能是無意中產(chǎn)生的,它可以由多種因素導(dǎo)致,包括訓(xùn)練數(shù)據(jù)集中存在的偏見、模型不能獲取最新的信息,或是其在理解和生成準確回應(yīng)時的固有限制。為了確保我們可以安全、有效地利用基礎(chǔ)模型,特別是在新聞、醫(yī)療和法律等需要事實準
    的頭像 發(fā)表于 09-22 16:57 ?522次閱讀

    幻覺降低30%!首個多模態(tài)大模型幻覺修正工作Woodpecker

    視覺幻覺是常見于多模態(tài)大語言模型 (Multimodal Large Language Models, MLLMs) 的一個典型問題,它指的是"模型輸出的描述與圖片內(nèi)容不相符"
    的頭像 發(fā)表于 10-30 11:05 ?399次閱讀
    <b class='flag-5'>幻覺</b>降低30%!首個多模態(tài)大<b class='flag-5'>模型</b><b class='flag-5'>幻覺</b>修正工作Woodpecker

    全球首款支持 8K(8192)輸入長度的開源向量模型發(fā)布

    在大模型時代,向量模型的重要性進一步增強。尤其是在檢索增強生成(RAG)場景中,它成為了一個核心組件,用于解決大模型的上下文長度限制、幻覺
    的頭像 發(fā)表于 11-02 14:53 ?796次閱讀
    全球首款支持 8K(8192)輸入長度的開源向量<b class='flag-5'>模型</b>發(fā)布

    LLM的幻覺問題最新綜述

    幻覺被描述為無意義或不忠實于所提供源內(nèi)容的生成內(nèi)容。根據(jù)與源內(nèi)容的矛盾,這些幻覺又進一步分為內(nèi)在幻覺和外在幻覺。在LLMs中,幻覺的范圍包含
    的頭像 發(fā)表于 11-22 17:40 ?957次閱讀
    LLM的<b class='flag-5'>幻覺</b>問題最新綜述

    搜索出生的百川智能大模型RAG爬坑之路總結(jié)

    今天對百川的RAG方法進行解讀,百川智能具有深厚的搜索背景,來看看他們是怎么爬RAG的坑的吧~
    的頭像 發(fā)表于 01-05 15:02 ?1359次閱讀
    搜索出生的百川智能大<b class='flag-5'>模型</b><b class='flag-5'>RAG</b>爬坑之路總結(jié)

    阿里云推出企業(yè)級大模型RAG系統(tǒng)

    在國際AI大數(shù)據(jù)峰會上,阿里云重磅推出了企業(yè)級大模型檢索增強生成(RAG)解決方案。這一解決方案旨在為企業(yè)提供更強大、更智能的大模型應(yīng)用工具,幫助企業(yè)更有效地利用大數(shù)據(jù)和人工智能技術(shù)。
    的頭像 發(fā)表于 02-05 09:54 ?1041次閱讀

    利用知識圖譜與Llama-Index技術(shù)構(gòu)建大模型驅(qū)動的RAG系統(tǒng)(下)

    對于語言模型(LLM)幻覺,知識圖譜被證明優(yōu)于向量數(shù)據(jù)庫。知識圖譜提供更準確、多樣化、有趣、邏輯和一致的信息,減少了LLM中出現(xiàn)幻覺的可能性。
    的頭像 發(fā)表于 02-22 14:13 ?1020次閱讀
    利用知識圖譜與Llama-Index技術(shù)構(gòu)建大<b class='flag-5'>模型</b>驅(qū)動的<b class='flag-5'>RAG</b>系統(tǒng)(下)

    什么是RAGRAG學(xué)習(xí)和實踐經(jīng)驗

    高級的RAG能很大程度優(yōu)化原始RAG的問題,在索引、檢索和生成上都有更多精細的優(yōu)化,主要的優(yōu)化點會集中在索引、向量模型優(yōu)化、檢索后處理等模塊進行優(yōu)化
    的頭像 發(fā)表于 04-24 09:17 ?577次閱讀
    什么是<b class='flag-5'>RAG</b>,<b class='flag-5'>RAG</b>學(xué)習(xí)和實踐經(jīng)驗

    阿里達摩院提出“知識鏈”框架,降低大模型幻覺

    近日,阿里巴巴達摩院(湖畔實驗室)攜手新加坡南洋理工大學(xué)等研究機構(gòu),共同推出了大模型知識鏈(CoK)框架。該框架不僅可實時檢索異構(gòu)知識源,還能逐步糾正推理錯誤,有效提高了大模型在回答知識型問題時的準確率,并顯著降低了所謂的“幻覺
    的頭像 發(fā)表于 05-10 11:46 ?613次閱讀

    使用OpenVINO和LlamaIndex構(gòu)建Agentic-RAG系統(tǒng)

    解決大語言模型在知識時效性和專業(yè)性上的不足。但同時傳統(tǒng)的 RAG 系統(tǒng)也有它的缺陷,例如靈活性較差,由于 RAG 會過分依賴于向量數(shù)據(jù)庫的檢索結(jié)果,導(dǎo)致其在解決一些復(fù)雜問題的時候,只是一味地 “搬運” 檢索
    的頭像 發(fā)表于 10-12 09:59 ?128次閱讀
    使用OpenVINO和LlamaIndex構(gòu)建Agentic-<b class='flag-5'>RAG</b>系統(tǒng)