0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA Triton推理服務(wù)器簡化人工智能推理

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Uttara Kumar ? 2022-04-08 16:43 ? 次閱讀

人工智能的快速發(fā)展正在推高數(shù)據(jù)集的規(guī)模,以及網(wǎng)絡(luò)的規(guī)模和復(fù)雜性。支持人工智能的應(yīng)用程序,如電子商務(wù)產(chǎn)品推薦、基于語音的助手和呼叫中心自動化,需要數(shù)十到數(shù)百個經(jīng)過培訓(xùn)的人工智能模型。推理服務(wù)幫助基礎(chǔ)設(shè)施管理人員部署、管理和擴展這些模型,并在生產(chǎn)中保證實時服務(wù)質(zhì)量( QoS )。此外,基礎(chǔ)架構(gòu)經(jīng)理希望提供和管理用于部署這些 AI 模型的正確計算基礎(chǔ)架構(gòu),最大限度地利用計算資源,靈活地放大或縮小規(guī)模,以優(yōu)化部署的運營成本。將人工智能投入生產(chǎn)既是一項推理服務(wù),也是一項基礎(chǔ)設(shè)施管理挑戰(zhàn)。

NVIDIA 與谷歌云合作,將 CPUGPU 通用推理服務(wù)平臺 NVIDIA Triton Inference Server的功能與谷歌 Kubernetes 引擎( GKE )相結(jié)合,使企業(yè)更容易將人工智能投入生產(chǎn)。NVIDIA Triton Inference Server 是一個托管環(huán)境,用于在安全的谷歌基礎(chǔ)設(shè)施中部署、擴展和管理容器化人工智能應(yīng)用程序。

使用 NVIDIA Triton 推理服務(wù)器在谷歌云上的 CPU 和 GPU 上提供推理服務(wù)

在企業(yè)應(yīng)用程序中操作 AI 模型帶來了許多挑戰(zhàn)——為在多個框架中培訓(xùn)的模型提供服務(wù),處理不同類型的推理查詢類型,并構(gòu)建一個能夠跨 CPU 和 GPU 等多個部署平臺進行優(yōu)化的服務(wù)解決方案。

Triton 推理服務(wù)器通過提供一個單一的標(biāo)準(zhǔn)化推理平臺來解決這些挑戰(zhàn),該平臺可以從任何基于 TensorFlow 、TensorRT、 PyTorch 、 ONNX 運行時、 OpenVINO 或自定義 C ++/ Python 框架的本地存儲或谷歌云的托管存儲在任何基于 GPU 或 CPU 的基礎(chǔ)設(shè)施上部署經(jīng)過培訓(xùn)的 AI 模型。

圖 1 Triton 部署在 Google Kubernetes 引擎( GKE )上的推理服務(wù)器

在 GKE 集群上一鍵部署 NVIDIA Triton 推理服務(wù)器

Google Kubernetes Engine ( GKE )上的 Triton 為部署在 CPU 和 GPU 上的 AI 模型提供了通用推理服務(wù)平臺,并結(jié)合了 Kubernetes 群集管理、負(fù)載平衡和基于需求的自動縮放計算的方便性。

使用谷歌市場上新的一鍵式 Triton GKE 推理服務(wù)器應(yīng)用程序,可以將 Triton 無縫部署為 Google Kubernetes Engine ( GKE )管理的集群上的容器化微服務(wù)。

GKE 的 Triton 推理服務(wù)器應(yīng)用程序是一個 helm chart 部署程序,可自動安裝和配置 Triton ,以便在具有 NVIDIA GPU 節(jié)點池的 GKE 集群上使用,包括 NVIDIA A100 Tensor Core GPU s 和 NVIDIA T4 Tensor Core GPU s ,并利用谷歌云上的 Istio 進行流量進入和負(fù)載平衡。它還包括一個水平 pod autoscaler ( HPA ),它依賴堆棧驅(qū)動程序自定義度量適配器來監(jiān)控 GPU 占空比,并根據(jù)推理查詢和 SLA 要求自動縮放 GKE 集群中的 GPU 節(jié)點。

關(guān)于作者

Uttara Kumar 是 NVIDIA 的高級產(chǎn)品營銷經(jīng)理,專注于 GPU - 云計算中的人工智能加速應(yīng)用。她非常關(guān)心讓每個人都能獲得技術(shù)的民主化,讓開發(fā)者能夠利用 NVIDIA 數(shù)據(jù)中心平臺的力量來加快創(chuàng)新步伐。在 NVIDIA 之前,她領(lǐng)導(dǎo)半導(dǎo)體和科學(xué)計算軟件公司的軟件產(chǎn)品營銷。她擁有安娜堡密歇根大學(xué)的 Eel CTR 工程碩士學(xué)位。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10772

    瀏覽量

    210451
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    12

    文章

    8849

    瀏覽量

    84954
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46348

    瀏覽量

    236518
收藏 人收藏

    評論

    相關(guān)推薦

    什么是AI服務(wù)器?AI服務(wù)器的優(yōu)勢是什么?

    AI服務(wù)器是一種專門為人工智能應(yīng)用設(shè)計的服務(wù)器,它采用異構(gòu)形式的硬件架構(gòu),通常搭載GPU、FPGA、ASIC等加速芯片,利用CPU與加速芯片的組合來滿足高吞吐量互聯(lián)的需求,為自然語言處理、計算機視覺、機器學(xué)習(xí)等
    的頭像 發(fā)表于 09-21 11:43 ?325次閱讀

    AMD助力HyperAccel開發(fā)全新AI推理服務(wù)器

    HyperAccel 是一家成立于 2023 年 1 月的韓國初創(chuàng)企業(yè),致力于開發(fā) AI 推理專用型半導(dǎo)體器件和硬件,最大限度提升推理工作負(fù)載的存儲帶寬使用,并通過將此解決方案應(yīng)用于大型語言模型來
    的頭像 發(fā)表于 09-18 09:37 ?282次閱讀
    AMD助力HyperAccel開發(fā)全新AI<b class='flag-5'>推理</b><b class='flag-5'>服務(wù)器</b>

    AI云服務(wù)器:開啟智能計算新時代

    一、AI云服務(wù)器的定義與特點 AI云服務(wù)器的定義 AI云服務(wù)器是一種基于云計算技術(shù),專為處理人工智能相關(guān)工作負(fù)載而構(gòu)建的服務(wù)器。它集成了強大
    的頭像 發(fā)表于 08-09 16:08 ?550次閱讀

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來加速深度學(xué)習(xí)的訓(xùn)練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05

    英偉達推出全新NVIDIA AI Foundry服務(wù)NVIDIA NIM推理服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)NVIDIA NIM 推理服務(wù)
    的頭像 發(fā)表于 07-25 09:48 ?611次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點,旨在提高模型在處理復(fù)雜任務(wù)時的效率和響應(yīng)速度。以下是對LLM大模型推理加速關(guān)鍵技術(shù)的詳細(xì)探討,內(nèi)容將涵蓋模型壓縮、解碼方法優(yōu)化、底層優(yōu)化、分布式并行
    的頭像 發(fā)表于 07-24 11:38 ?648次閱讀

    AI服務(wù)器的特點和關(guān)鍵技術(shù)

    AI服務(wù)器,即人工智能服務(wù)器,是一種專門設(shè)計用于運行和加速人工智能(AI)算法與模型的硬件設(shè)備。隨著人工智能技術(shù)的快速發(fā)展和普及,AI
    的頭像 發(fā)表于 07-17 16:34 ?1025次閱讀

    英偉達推出AI模型推理服務(wù)NVIDIA NIM

    英偉達近日宣布推出一項革命性的AI模型推理服務(wù)——NVIDIA NIM。這項服務(wù)將極大地簡化AI模型部署過程,為全球的2800萬英偉達開發(fā)者
    的頭像 發(fā)表于 06-04 09:15 ?578次閱讀

    進一步解讀英偉達 Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    、庫及優(yōu)化的AI模型和應(yīng)用程序,為用戶提供全面的AI計算解決方案。 DGX SuperPOD - 專為人工智能設(shè)計的數(shù)據(jù)中心 NVIDIA 發(fā)布專為訓(xùn)練和推理萬億參數(shù)生成式AI模型而設(shè)計的數(shù)據(jù)中心
    發(fā)表于 05-13 17:16

    利用NVIDIA組件提升GPU推理的吞吐

    本實踐中,唯品會 AI 平臺與 NVIDIA 團隊合作,結(jié)合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)將推理的稠密網(wǎng)絡(luò)和熱
    的頭像 發(fā)表于 04-20 09:39 ?571次閱讀

    Groq LPU崛起,AI芯片主戰(zhàn)場從訓(xùn)練轉(zhuǎn)向推理

    人工智能推理的重要性日益凸顯,高效運行端側(cè)大模型及AI軟件背后的核心技術(shù)正是推理。不久的未來,全球芯片制造商的主要市場將全面轉(zhuǎn)向人工智能推理
    的頭像 發(fā)表于 02-29 16:46 ?1021次閱讀

    使用NVIDIA Triton推理服務(wù)器來加速AI預(yù)測

    這家云計算巨頭的計算機視覺和數(shù)據(jù)科學(xué)服務(wù)使用 NVIDIA Triton 推理服務(wù)器來加速 AI 預(yù)測。
    的頭像 發(fā)表于 02-29 14:04 ?507次閱讀

    利用NVIDIA產(chǎn)品技術(shù)組合提升用戶體驗

    本案例通過利用NVIDIA TensorRT-LLM加速指令識別深度學(xué)習(xí)模型,并借助NVIDIA Triton推理服務(wù)器
    的頭像 發(fā)表于 01-17 09:30 ?606次閱讀

    人工智能服務(wù)器高性能計算需求

    人工智能(AI)服務(wù)器是一種專門為了運行人工智能應(yīng)用和提供大數(shù)據(jù)處理能力而設(shè)計的高性能計算機。它既可以支持本地應(yīng)用程序和網(wǎng)頁,也可以為云和本地服務(wù)器提供復(fù)雜的AI模型和
    的頭像 發(fā)表于 12-08 09:44 ?445次閱讀

    周四研討會預(yù)告 | 注冊報名 NVIDIA AI Inference Day - 大模型推理線上研討會

    ,使用 NVIDIA Triton TM? 推理服務(wù)器進行端到端部署 LLM Serving,以及金融行業(yè)的 AI、NLP/LLM 應(yīng)用場景、客戶案例。 通過本次活動,您將了解基于上述
    的頭像 發(fā)表于 10-26 09:05 ?308次閱讀