0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA Triton助力騰訊PCG加速在線推理

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:NVIDIA ? 2022-05-20 15:25 ? 次閱讀

案例簡(jiǎn)介

本案例中通過(guò)NVIDIA T4 GPU,通過(guò)Ronda平臺(tái)調(diào)用Triton以及TensorRT, 整體提升開(kāi)發(fā)和推理效能, 幫助騰訊PCG的多個(gè)服務(wù)整體效能提升2倍,吞吐量最大提升6倍,同時(shí)降低了40%的延時(shí)。本案例主要應(yīng)用到 NVIDIA T4 GPU、TensorRT和Triton。

本案例主要應(yīng)用到 NVIDIA T4 GPU、TensorRT和Triton。

客戶(hù)簡(jiǎn)介及應(yīng)用背景

騰訊平臺(tái)與內(nèi)容事業(yè)群(簡(jiǎn)稱(chēng) 騰訊PCG)負(fù)責(zé)公司互聯(lián)網(wǎng)平臺(tái)和內(nèi)容文化生態(tài)融合發(fā)展,整合QQ、QQ空間等社交平臺(tái),和應(yīng)用寶、瀏覽器等流量平臺(tái),以及新聞資訊、視頻、體育、直播、動(dòng)漫、影業(yè)等內(nèi)容業(yè)務(wù),推動(dòng)IP跨平臺(tái)、多形態(tài)發(fā)展,為更多用戶(hù)創(chuàng)造海量的優(yōu)質(zhì)數(shù)字內(nèi)容體驗(yàn)。

騰訊PCG機(jī)器學(xué)習(xí)平臺(tái)部旨在構(gòu)建和持續(xù)優(yōu)化符合PCG技術(shù)中臺(tái)戰(zhàn)略的機(jī)器學(xué)習(xí)平臺(tái)和系統(tǒng),提升PCG機(jī)器學(xué)習(xí)技術(shù)應(yīng)用效率和價(jià)值。建設(shè)業(yè)務(wù)領(lǐng)先的模型訓(xùn)練系統(tǒng)和算法框架;提供涵蓋數(shù)據(jù)標(biāo)注、模型訓(xùn)練、評(píng)測(cè)、上線的全流程平臺(tái)服務(wù),實(shí)現(xiàn)高效率迭代;在內(nèi)容理解和處理領(lǐng)域,輸出業(yè)界領(lǐng)先的元能力和智能策略庫(kù)。機(jī)器學(xué)習(xí)平臺(tái)部正服務(wù)于PCG所有業(yè)務(wù)產(chǎn)品。

客戶(hù)挑戰(zhàn)

業(yè)務(wù)繁多,場(chǎng)景復(fù)雜

業(yè)務(wù)開(kāi)發(fā)語(yǔ)言包括C++/Python

模型格式繁多,包括ONNX、Pytorch、TensorFlow、TensorRT等

模型預(yù)處理涉及圖片下載網(wǎng)絡(luò)io

多模型融合流程比教復(fù)雜,涉及循環(huán)調(diào)用

支持異構(gòu)推理

模型推理結(jié)果異常時(shí),難以方便地調(diào)試定位問(wèn)題

需要與公司內(nèi)現(xiàn)有協(xié)議/框架/平臺(tái)進(jìn)行融合

應(yīng)用方案

基于以上挑戰(zhàn),騰訊PCG選擇了采用NVIDIA 的Triton推理服務(wù)器,以解決新場(chǎng)景下模型推理引擎面臨的挑戰(zhàn),在提升用戶(hù)研效的同時(shí),大幅降低了服務(wù)成本。

NVIDIA Triton 是一款開(kāi)源軟件,對(duì)于所有推理模式都可以簡(jiǎn)化模型在任一框架中以及任何 GPU 或 CPU 上的運(yùn)行方式,從而在生產(chǎn)環(huán)境中使用 AI。Triton 支持多模型ensemble,以及 TensorFlow、PyTorch、ONNX 等多種深度學(xué)習(xí)模型框架,可以很好的支持多模型聯(lián)合推理的場(chǎng)景,構(gòu)建起視頻、圖片、語(yǔ)音、文本整個(gè)推理服務(wù)過(guò)程,大大降低多個(gè)模型服務(wù)的開(kāi)發(fā)和維護(hù)成本。

基于C++ 的基礎(chǔ)架構(gòu)、Dynamic-batch、以及對(duì) TensorRT 的支持,同時(shí)配合 T4 的 GPU,將整體推理服務(wù)的吞吐能力最大提升 6 倍,延遲最大降低 40%,既滿足了業(yè)務(wù)的低延時(shí)需求,成本也降低了20%-66%。

通過(guò)將Triton編譯為動(dòng)態(tài)鏈接庫(kù),可以方便地鏈入公司內(nèi)部框架,對(duì)接公司的平臺(tái)治理體系。符合C語(yǔ)言規(guī)范的API也極大降低了用戶(hù)的接入成本。

借助Python Backend和Custom Backend,用戶(hù)可以自由選擇使用C++/Python語(yǔ)言進(jìn)行二次開(kāi)發(fā)。

Triton的Tracing能力可以方便地捕捉執(zhí)行過(guò)程中的數(shù)據(jù)流狀態(tài)。結(jié)合Metrics 和 Perf Analysis等組件,可以快速定位開(kāi)發(fā)調(diào)試,甚至是線上問(wèn)題,對(duì)于開(kāi)發(fā)和定位問(wèn)題的效率有很大提升。

NVIDIA DALI 是 GPU 加速的數(shù)據(jù)增強(qiáng)和圖像加載庫(kù)。DALI Backend可以用于替換掉原來(lái)的圖片解碼、resize等操作。FIL Backend也可以替代Python XGBoost模型推理,進(jìn)一步提升服務(wù)端推理性能。

方案效果及影響

借助NVIDIA Triton 推理框架,配合 DALI/FIL/Python 等Backend,以及 TensorRT,整體推理服務(wù)的吞吐能力最大提升 6 倍,延遲最大降低 40%。幫助騰訊PCG各業(yè)務(wù)場(chǎng)景中,以更低的成本構(gòu)建了高性能的推理服務(wù),同時(shí)更低的延遲降低了整條系統(tǒng)鏈路的響應(yīng)時(shí)間,優(yōu)化了用戶(hù)體驗(yàn)。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4816

    瀏覽量

    102636
  • C++
    C++
    +關(guān)注

    關(guān)注

    21

    文章

    2090

    瀏覽量

    73405
  • python
    +關(guān)注

    關(guān)注

    54

    文章

    4758

    瀏覽量

    84293
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NVIDIA與思科合作打造企業(yè)級(jí)生成式AI基礎(chǔ)設(shè)施

    NVIDIA 加速計(jì)算平臺(tái)、NVIDIA AI Enterprise 軟件和 NVIDIA NIM 推理微服務(wù)加持的思科 Nexus H
    的頭像 發(fā)表于 10-10 09:35 ?191次閱讀

    NVIDIA助力提供多樣、靈活的模型選擇

    在本案例中,Dify 以模型中立以及開(kāi)源生態(tài)的優(yōu)勢(shì),為廣大 AI 創(chuàng)新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton 推理服務(wù)器產(chǎn)品,為
    的頭像 發(fā)表于 09-09 09:19 ?377次閱讀

    英偉達(dá)推出全新NVIDIA AI Foundry服務(wù)和NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM 推理微服務(wù),與同樣剛推出的 Llama 3.1 系列開(kāi)源模型一起,為全球企業(yè)的生成式 AI
    的頭像 發(fā)表于 07-25 09:48 ?611次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語(yǔ)言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個(gè)研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時(shí)的效率和響應(yīng)速度。以下是對(duì)LLM大模型推理加速關(guān)鍵技術(shù)的詳細(xì)探討,內(nèi)容將涵蓋模型壓縮、
    的頭像 發(fā)表于 07-24 11:38 ?648次閱讀

    NVIDIA加速計(jì)算和 AI助力數(shù)字銀行揭穿金融欺詐騙局

    Bunq 利用 NVIDIA AI 將其欺詐檢測(cè)模型的訓(xùn)練速度提高近百倍。 ? 歐洲新型銀行 Bunq 正在 NVIDIA 加速計(jì)算和 AI 的助力下,揭穿金融欺詐者的騙局。 被稱(chēng)為“
    的頭像 發(fā)表于 06-27 17:41 ?715次閱讀

    英特爾助力京東云用CPU加速AI推理,以大模型構(gòu)建數(shù)智化供應(yīng)鏈

    英特爾助力京東云用CPU加速AI推理,以大模型構(gòu)建數(shù)智化供應(yīng)鏈
    的頭像 發(fā)表于 05-27 11:50 ?442次閱讀
    英特爾<b class='flag-5'>助力</b>京東云用CPU<b class='flag-5'>加速</b>AI<b class='flag-5'>推理</b>,以大模型構(gòu)建數(shù)智化供應(yīng)鏈

    NVIDIA加速微軟最新的Phi-3 Mini開(kāi)源語(yǔ)言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開(kāi)源語(yǔ)言模型。TensorRT-LLM 是一個(gè)開(kāi)源庫(kù),用于優(yōu)化從 PC 到云端的 NVID
    的頭像 發(fā)表于 04-28 10:36 ?437次閱讀

    利用NVIDIA組件提升GPU推理的吞吐

    本實(shí)踐中,唯品會(huì) AI 平臺(tái)與 NVIDIA 團(tuán)隊(duì)合作,結(jié)合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)將推理的稠密網(wǎng)絡(luò)和熱
    的頭像 發(fā)表于 04-20 09:39 ?571次閱讀

    使用NVIDIA Triton推理服務(wù)器來(lái)加速AI預(yù)測(cè)

    這家云計(jì)算巨頭的計(jì)算機(jī)視覺(jué)和數(shù)據(jù)科學(xué)服務(wù)使用 NVIDIA Triton 推理服務(wù)器來(lái)加速 AI 預(yù)測(cè)。
    的頭像 發(fā)表于 02-29 14:04 ?507次閱讀

    利用NVIDIA產(chǎn)品技術(shù)組合提升用戶(hù)體驗(yàn)

    本案例通過(guò)利用NVIDIA TensorRT-LLM加速指令識(shí)別深度學(xué)習(xí)模型,并借助NVIDIA Triton推理服務(wù)器在
    的頭像 發(fā)表于 01-17 09:30 ?606次閱讀

    什么是Triton-shared?Triton-shared的安裝和使用

    經(jīng)過(guò)前面幾章關(guān)于triton在nv gpu上調(diào)優(yōu)的講解,我們這章開(kāi)始來(lái)看看triton的一個(gè)third_party庫(kù),該庫(kù)是為了讓triton去支持更多其他的backend。該項(xiàng)目的地址如下所示
    的頭像 發(fā)表于 12-19 09:47 ?993次閱讀
    什么是<b class='flag-5'>Triton</b>-shared?<b class='flag-5'>Triton</b>-shared的安裝和使用

    NVIDIA 初創(chuàng)加速計(jì)劃 Omniverse 加速營(yíng)

    新的 AI 技術(shù)和迅速發(fā)展的應(yīng)用正在改變各行各業(yè),生成式 AI 已經(jīng)展示出在藝術(shù)、設(shè)計(jì)、影視動(dòng)畫(huà)、互娛、建筑等領(lǐng)域加速內(nèi)容創(chuàng)作的價(jià)值,助力實(shí)現(xiàn)高質(zhì)量、高效率、多樣化的內(nèi)容生產(chǎn),成為推動(dòng)數(shù)字生產(chǎn)力變革
    的頭像 發(fā)表于 12-04 20:35 ?591次閱讀
    <b class='flag-5'>NVIDIA</b> 初創(chuàng)<b class='flag-5'>加速</b>計(jì)劃 Omniverse <b class='flag-5'>加速</b>營(yíng)

    創(chuàng)新企業(yè)云福利:騰訊云 × NVIDIA 初創(chuàng)加速計(jì)劃

    助力生成式 AI、大模型訓(xùn)練與推理、自動(dòng)駕駛、圖像處理等場(chǎng)景初創(chuàng)企業(yè)加速成長(zhǎng),最高獲贈(zèng) 10 萬(wàn)元扶持基金、NVIDIA 深度學(xué)習(xí)培訓(xùn)中心(DLI)優(yōu)惠課程,以及免費(fèi)的 GPU 技術(shù)支
    的頭像 發(fā)表于 11-13 20:40 ?519次閱讀
    創(chuàng)新企業(yè)云福利:<b class='flag-5'>騰訊</b>云 × <b class='flag-5'>NVIDIA</b> 初創(chuàng)<b class='flag-5'>加速</b>計(jì)劃

    在線研討會(huì) | NVIDIA 加速汽車(chē)行業(yè)大語(yǔ)言模型的開(kāi)發(fā)與應(yīng)用

    10 月 28?日上午?10?點(diǎn) ,NVIDIA 解決方案架構(gòu)師陳文愷將出席研討會(huì),講解 ?NVIDIA 如何助力汽車(chē)行業(yè)開(kāi)發(fā)企業(yè)級(jí)大語(yǔ)言模型 ,加速行業(yè)創(chuàng)新和發(fā)展 。會(huì)議期間還將有兩
    的頭像 發(fā)表于 10-27 20:05 ?323次閱讀
    <b class='flag-5'>在線</b>研討會(huì) | <b class='flag-5'>NVIDIA</b> <b class='flag-5'>加速</b>汽車(chē)行業(yè)大語(yǔ)言模型的開(kāi)發(fā)與應(yīng)用

    周四研討會(huì)預(yù)告 | 注冊(cè)報(bào)名 NVIDIA AI Inference Day - 大模型推理線上研討會(huì)

    由 CSDN 舉辦的 NVIDIA AI Inference Day - 大模型推理線上研討會(huì),將幫助您了解 NVIDIA 開(kāi)源大型語(yǔ)言模型(LLM)推理
    的頭像 發(fā)表于 10-26 09:05 ?308次閱讀