0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用OpenVINO和LlamaIndex構(gòu)建Agentic-RAG系統(tǒng)

英特爾物聯(lián)網(wǎng) ? 來源:英特爾物聯(lián)網(wǎng) ? 2024-10-12 09:59 ? 次閱讀

作者:楊亦誠英特爾 AI 軟件工程師

背景

RAG 系統(tǒng)的全稱是 Retrieval-augmented Generation,本質(zhì)上是 Prompt Engineering,通過在 Prompt 中注入檢索得到的外部數(shù)據(jù),可以有效地解決大語言模型在知識時效性和專業(yè)性上的不足。但同時傳統(tǒng)的 RAG 系統(tǒng)也有它的缺陷,例如靈活性較差,由于 RAG 會過分依賴于向量數(shù)據(jù)庫的檢索結(jié)果,導(dǎo)致其在解決一些復(fù)雜問題的時候,只是一味地 “搬運” 檢索結(jié)果,無法通過推理找到更優(yōu)的解決途徑,此外隨著向量數(shù)據(jù)庫的規(guī)模增大,傳統(tǒng) RAG 也無法高效對輸入請求進行分類和過濾,導(dǎo)致檢索過程猶如“大海撈針”,費時費力。

79c784fa-877b-11ef-b8af-92fbcf53809c.png

圖:Agentic-RAG系統(tǒng)示例

而基于 AI 智能體的 RAG 系統(tǒng)(以下簡稱 Agentic-RAG )恰好可以解決傳統(tǒng) RAG 在靈活性上的不足,它通過將多個不同類別的 RAG 檢測器,以工具的形式集成在 AI 智能體中,讓 AI 智能體根據(jù)用戶的請求,判斷是否需要調(diào)用 RAG 搜索上下文,以及調(diào)用哪個 RAG 工具進行檢索,例如在回答一個歷史相關(guān)的問題時,Agentic-RAG 就會優(yōu)先在歷史類的 RAG 檢索器中搜索答案,又或是在回答一個涉及數(shù)學(xué)計算的問題時,Agentic-RAG 則不會使用 RAG,而是調(diào)用數(shù)據(jù)計算相關(guān)的工具,甚至如果 LLM 本身具備一定的數(shù)據(jù)運算能力話,則完全不需要調(diào)用外部工具,直接輸出答案。當然我們也可以將 RAG 和其他外部工具結(jié)合起來,協(xié)同解決更復(fù)雜的問題,如上圖所示,在這個過程中,AI智能 體會將任務(wù)拆解后,在每個步驟中分別調(diào)用不同的工具,或是 RAG 組件來輸出最終答案。接下來我們就一起看下如何利用 OpenVINO 和 LlamaIndex 工具來構(gòu)建一個 Agentic-RAG 系統(tǒng)。

完整示例:

https://github.com/openvinotoolkit/openvino_notebooks/blob/latest/notebooks/llm-rag-llamaindex/llm-rag-llamaindex.ipynb

第一步模型轉(zhuǎn)換與量化

LLM 和 Embedding 模型是 RAG系統(tǒng)中必要的組件,這里我們可以通過 Optimum-intel CLI 分別把他們轉(zhuǎn)化為 OpenVINO 的 IR 格式,并進行量化壓縮。

安裝方法:

pip install optimum[openvino]

LLM:

optimum-cli export openvino --model {llm_model_id} --task text-generation-with-past --trust-remote-code --weight-format int4 {llm_model_path}

Embedding:

pip install optimum[openvino]

第二步 模型任務(wù)初始化

目前基于 OpenVINO 的 LLM,Embedding 以及 Reranker 任務(wù)均已被集成在 LlamaIndex 框架中,開發(fā)者可以非常方便地利用導(dǎo)出的 LLM 和 Embedding 模型,將這兩類任務(wù)在 LlamaIndex 中進行初始化。

安裝方法:

pip install llama-index llama-index-llms-openvino llama-index-embeddings-openvino

LLM:

from llama_index.llms.openvino import OpenVINOLLM


llm = OpenVINOLLM(  
  model_name=str(llm_model_path),  
  tokenizer_name=str(llm_model_path),  
  context_window=3900,  
  max_new_tokens=1000,  
  model_kwargs={"ov_config": ov_config},  
  device_map=llm_device.value,  
  completion_to_prompt=completion_to_prompt,
  )

Embedding:

from llama_index.embeddings.huggingface_openvino import OpenVINOEmbedding


embedding = OpenVINOEmbedding(folder_name=embedding_model_path, device=embedding_device.value)

第三步 構(gòu)建RAG工具

接下來我們可以利用初始化后的 LLM 以及 Embedding 組件來構(gòu)建 RAG 工具。第一步需要在 LlamaIndex 創(chuàng)建一個標準的 RAG 檢索引擎,為了方便演示,該檢索器僅使用默認的向量相似度搜索方式進行上下文過濾,如果想了解更完整的 RAG 搭建方法,可以參考 OpenVINO notebooks 倉庫中的另一個示例:

https://github.com/openvinotoolkit/openvino_notebooks/tree/latest/notebooks/llm-rag-llamaindex

from llama_index.readers.file import PyMuPDFReader
from llama_index.core import VectorStoreIndex, Settings
from llama_index.core.tools import FunctionTool


Settings.embed_model = embedding
Settings.llm = llm
loader = PyMuPDFReader()
documents = loader.load(file_path=text_example_en_path)
index = VectorStoreIndex.from_documents(documents)
query_engine = index.as_query_engine(similarity_top_k=2)

在完成 RAG 檢索引擎創(chuàng)建后,可以直接調(diào)用 LlamaIndex 的接口將它包裝為一個 Agent 的工具,如下所示,同時需要添加對該工具的描述,以便 LLM 判斷在什么時候調(diào)用什么工具。

from llama_index.core.tools import QueryEngineTool


budget_tool = QueryEngineTool.from_defaults(  
  query_engine,  
  name="Xeon6",  
  description="A RAG engine with some basic facts about Intel Xeon 6 processors with E-cores",
)

此外,為了演示 Agentic-RAG 對于復(fù)雜任務(wù)的拆解與多工具間的路由能力,我們還可以再準備兩個單獨的數(shù)學(xué)運算工具,供 LLM 選擇。

def multiply(a: float, b: float) -> float:  
  """Multiply two numbers and returns the product"""  
  return a * b


multiply_tool = FunctionTool.from_defaults(fn=multiply)


def add(a: float, b: float) -> float:  
  """Add two numbers and returns the sum"""  
  return a + b


add_tool = FunctionTool.from_defaults(fn=add)

第四步 構(gòu)建 Agent 任務(wù)流水線

因為該示例中用到的 Llama3 還不支持 Function-call,所以這里我們可以創(chuàng)建了一個基于 ReAct 的 Agent 。在 LlamaIndex中搭建 Agent 流水線只需要一行代碼,通過 ReAct Agent.from_tools 接口可以創(chuàng)建一個基礎(chǔ)的 ReAct Agent ,并將剛才定義好的工具及 LLM 組件綁定到該 Agent 中。

agent = ReActAgent.from_tools([multiply_tool, add_tool, budget_tool], llm=llm, verbose=True)

接下來可以測試下效果,我們向 Agent 咨詢了關(guān)于“4顆第六代 Xeon CPU 最大線程數(shù)“的問題,可以看到 Agent 首先會調(diào)用 Xeon 6 的 RAG 系統(tǒng)查詢單顆 CPU 支持的最大線程數(shù),然后再調(diào)用數(shù)學(xué)運算工具將獲得的線程數(shù)乘以4,最后將得到的數(shù)字反饋給用戶。

response = agent.chat("What's the maximum number of cores in an Intel Xeon 6 processor server with 4 sockets ? Go step by step, using a tool to do any math.")

Thought: The current language of the user is English. I need to use a tool to help me answer the question.

Action: Xeon6

Action Input: {'input': 'maximum cores in a single socket'}

Observation:

According to the provided context information, the maximum cores in a single socket is 144.

Thought: The current language of the user is English. I need to use a tool to help me answer the question.

Action: multiply

Action Input: {'a': 144, 'b': 4}

Observation: 576

Thought: The current language of the user is English. I can answer without using any more tools. I'll use the user's language to answer

Answer: The maximum number of cores in an Intel Xeon 6 processor server with 4 sockets is 576.

總結(jié)和展望

通過將 Agent 和 RAG 進行結(jié)合,我們直接提升 LLM 在解決復(fù)雜任務(wù)時的能力,相較于傳統(tǒng)的 RAG,Agentic-RAG 更具產(chǎn)業(yè)落地價值。同時隨著多智能體方法的引入,基于 Agent 的 RAG 將逐步取代傳統(tǒng) RAG 系統(tǒng),實現(xiàn)更靈活,更精確的大語言模型應(yīng)用業(yè)務(wù)體系。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29347

    瀏覽量

    267630
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3054

    瀏覽量

    48569
  • 智能體
    +關(guān)注

    關(guān)注

    1

    文章

    121

    瀏覽量

    10546
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    81

    瀏覽量

    155

原文標題:使用 OpenVINO? 和 LlamaIndex 構(gòu)建 Agentic-RAG 系統(tǒng)|開發(fā)者實戰(zhàn)

文章出處:【微信號:英特爾物聯(lián)網(wǎng),微信公眾號:英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于OpenVINO和LangChain構(gòu)建RAG問答系統(tǒng)

    隨著生成式 AI 的興起,和大語言模型對話聊天的應(yīng)用變得非常熱門,但這類應(yīng)用往往只能簡單地和你“聊聊家?!?,并不能針對某些特定的行業(yè),給出非常專業(yè)和精準的答案。這也是由于大語言模型(以下簡稱 LLM)在時效性和專業(yè)性上的局限所導(dǎo)致,現(xiàn)在市面上大部分開源的 LLM 幾乎都只是使用某一個時間點前的公開數(shù)據(jù)進行訓(xùn)練,因此它無法學(xué)習(xí)到這個時間點之后的知識,并且也無法保證在專業(yè)領(lǐng)域上知識的準確性。那有沒有辦法讓你的模型學(xué)習(xí)到新的知識呢?
    的頭像 發(fā)表于 12-25 11:10 ?799次閱讀
    基于<b class='flag-5'>OpenVINO</b>和LangChain<b class='flag-5'>構(gòu)建</b><b class='flag-5'>RAG</b>問答<b class='flag-5'>系統(tǒng)</b>

    【大聯(lián)大世平Intel?神經(jīng)計算棒NCS2試用申請】在樹莓派上聯(lián)合調(diào)試Intel?神經(jīng)計算棒NCS2部署OpenVINO

    ),CentOS7.4(64位)操作系統(tǒng)內(nèi)核開發(fā)3,計算棒集成Intel最新的視覺處理單元(VPU),進行全面評估、4,全名評估OpenVINO?,搭建計算機視覺和深度學(xué)習(xí)視覺應(yīng)用的軟件平臺。5,使用OpenVINO工具包中的推
    發(fā)表于 06-30 16:06

    求分享適用于Ubuntu* 22.04系統(tǒng)OpenVINO?安裝程序包

    找不到適用于 Ubuntu* 22.04 系統(tǒng)OpenVINO?安裝程序包。
    發(fā)表于 08-14 14:58

    從源代碼構(gòu)建OpenVINO工具套件時報錯怎么解決?

    從源退貨開始構(gòu)建OpenVINO?工具套件錯誤: Could not find a package configuration file provided by \"ade\"
    發(fā)表于 08-15 06:45

    在Raspberry Pi上從源代碼構(gòu)建OpenVINO 2021.3收到錯誤怎么解決?

    在 Raspberry Pi 上從源代碼構(gòu)建 OpenVINO?2021.3。 運行OpenVINO?推理,并收到錯誤消息: ModuleNotFoundError:沒有
    發(fā)表于 08-15 08:24

    如何使用交叉編譯方法為Raspbian 32位操作系統(tǒng)構(gòu)建OpenVINO工具套件的開源分發(fā)

    提供如何使用交叉編譯方法為 Raspbian* 32 位操作系統(tǒng)構(gòu)建 OpenVINO? 工具套件的開源分發(fā)。 單擊主題上的 了解詳細信息: 系統(tǒng)要求注意本指南假定您的 Raspber
    發(fā)表于 08-15 06:28

    如何使用Python包裝器正確構(gòu)建OpenVINO工具套件

    構(gòu)建該工具套件。 如果您未明確指定 Python 版本,CMake 會選擇系統(tǒng)級 Python 版本(2.7),而且您的 Python 腳本將不起作用。 注意以下說明假定您已安裝了 Python
    發(fā)表于 08-15 07:13

    永久設(shè)置OpenVINO trade Windows reg10的工具套件環(huán)境變量

    ]%INTEL_OPENVINO_DIR%\\\\extras\\opencv\\\\bin可選,僅在根據(jù) 下載其他組件 安裝 OpenCV* 的情況下。 調(diào)整 自定義 OpenCV 構(gòu)建的條目。 注意這適用于 2022.1 版Ope
    發(fā)表于 08-15 07:18

    從Docker映像為Raspbian OpenVINO工具套件的安裝過程

    OpenVINO 開源技術(shù)中心 復(fù)制用于 Raspbian* 操作系統(tǒng)包的?工具套件的鏈接。選擇最新版本,右鍵單擊 URL,然后按 Copy 鏈接地址。 要構(gòu)建用于神經(jīng)計算英特爾? Movidius?或
    發(fā)表于 08-15 06:59

    無法使用Microsoft Visual Studio 2017為Windows 10構(gòu)建開源OpenVINO怎么解決?

    無法使用 Microsoft Visual Studio 2017 為 Windows 10 構(gòu)建開源OpenVINO?。
    發(fā)表于 08-15 06:43

    什么是LlamaIndex?LlamaIndex數(shù)據(jù)框架的特點和功能

    LlamaIndex是一個數(shù)據(jù)框架,用于讓基于LLM的應(yīng)用程序攝取、結(jié)構(gòu)化和訪問私有或領(lǐng)域特定的數(shù)據(jù)。它提供Python和Typescript版本。
    的頭像 發(fā)表于 01-05 11:08 ?8744次閱讀
    什么是<b class='flag-5'>LlamaIndex</b>?<b class='flag-5'>LlamaIndex</b>數(shù)據(jù)框架的特點和功能

    搜索出生的百川智能大模型RAG爬坑之路總結(jié)

    今天對百川的RAG方法進行解讀,百川智能具有深厚的搜索背景,來看看他們是怎么爬RAG的坑的吧~
    的頭像 發(fā)表于 01-05 15:02 ?1360次閱讀
    搜索出生的百川智能大模型<b class='flag-5'>RAG</b>爬坑之路總結(jié)

    什么是RAG,RAG學(xué)習(xí)和實踐經(jīng)驗

    高級的RAG能很大程度優(yōu)化原始RAG的問題,在索引、檢索和生成上都有更多精細的優(yōu)化,主要的優(yōu)化點會集中在索引、向量模型優(yōu)化、檢索后處理等模塊進行優(yōu)化
    的頭像 發(fā)表于 04-24 09:17 ?578次閱讀
    什么是<b class='flag-5'>RAG</b>,<b class='flag-5'>RAG</b>學(xué)習(xí)和實踐經(jīng)驗

    如何手擼一個自有知識庫的RAG系統(tǒng)

    用于自然語言處理任務(wù),如文本生成、問答系統(tǒng)等。 我們通過一下幾個步驟來完成一個基于京東云官網(wǎng)文檔的RAG系統(tǒng) 數(shù)據(jù)收集 建立知識庫 向量檢索 提示詞與模型 數(shù)據(jù)收集 數(shù)據(jù)的收集再整個RAG
    的頭像 發(fā)表于 06-17 14:59 ?440次閱讀

    英特爾軟硬件構(gòu)建模塊如何幫助優(yōu)化RAG應(yīng)用

    軟硬件構(gòu)建模塊如何幫助優(yōu)化RAG應(yīng)用,在簡化部署和支持擴展的同時,增強其上下文感知能力和實時響應(yīng)性能。 1 為您的應(yīng)用量身定制GenAI ChatGPT的面世改變了AI的發(fā)展格局。企業(yè)爭相利用這項新技術(shù)
    的頭像 發(fā)表于 07-24 15:12 ?308次閱讀
    英特爾軟硬件<b class='flag-5'>構(gòu)建</b>模塊如何幫助優(yōu)化<b class='flag-5'>RAG</b>應(yīng)用