生成式 AI 的大火,讓 AI 不再是一個學術層面的概念競賽,而是能夠有效提升各行各業(yè)的生產力。但是在應用開發(fā)的層面上,AI 技術面臨著不少挑戰(zhàn)。尤其是在企業(yè)級 AI 應用中,如何將模型部署到生產環(huán)境,如何確保模型部署后的可用性和可靠性,以及如何監(jiān)控和維護模型的性能等都是開發(fā)中需要解決的問題以及困難所在,這些問題也極大地制約了企業(yè)在開發(fā) AI 應用上的生產力提升。
NVIDIA AI Enterprise是一款面向企業(yè)級 AI 應用的一站式開發(fā)平臺,也被視作 NVIDIA AI 加速平臺的操作系統(tǒng),為 NVIDIA 的加速基礎架構提供穩(wěn)定可靠的軟件及開發(fā)環(huán)境,借助開發(fā)和部署優(yōu)化的云原生和加速 SDK 軟件套件和框架,實現(xiàn) AI 工作流的快速開發(fā)和應用部署。
7 月 11 日下午 2 點,智東西公開課聯(lián)合 NVIDIA 策劃推出「 NVIDIA AI Enterprise 加速 LLM 與推薦系統(tǒng)開發(fā)在線研討會」。研討會邀請到 NVIDIA 開發(fā)者發(fā)展經理崔曉楠、NVIDIA 消費互聯(lián)網(wǎng)事業(yè)部解決方案團隊高級機器學習架構師張海辰和 NVIDIA 產品經理高文雯參與主講。
其中,崔曉楠將以《NVIDIA AI Enterprise 助力并延展大模型 AI 工作流》為主題,分享 NVIDIA AI Enterprise 的最新更新內容及特性。之后,張海辰將圍繞主題《基于 NVIDIA NeMo 框架的 LLM 部署實踐》,著重介紹端到端云原生框架 NVIDIA NeMoTM,以及其是如何支持開發(fā)者構建、定制以及部署 AI 模型。
最后,來自 NVIDIA 總部的 Merlin 產品經理高文雯,將就主題《利用 NVIDIA Merlin 訓練部署高性能推薦系統(tǒng)》,為大家介紹 NVIDIA MerlinTM 是如何助力數(shù)據(jù)科學家、機器學習工程師和研究院大規(guī)模的構建高性能推薦系統(tǒng),從而獲得更好的預測、更高的點擊率和更快的系統(tǒng)部署。
NVIDIA AI Enterprise 加速LLM
與推薦系統(tǒng)開發(fā)在線研討會
★
直播時間
2023 年 7 月 11 日 1400
演講嘉賓&主題
14:00 - 14:20
NVIDIA AI Enterprise 助力
并延展大模型 AI 工作流
針對大模型等場景,在最新的 NVIDIA AI Enterprise 軟件堆棧中,包含了針對 NeMo Framework 的官方支持。同時,針對推薦系統(tǒng),語音,視覺大模型,多模態(tài)等應用方向也會在 NVIDIA AI Enterprise 的堆棧中獲得支持。
在應用的部署上,NVIDIA AI Enterprise 支持應用的加速再到任意位置的大規(guī)模部署,甚至延展到多云部署的架構。本次分享將會對 NVIDIA AI Enterprise 軟件套件的最新更新進行深度講解。
演講嘉賓
崔曉楠
NVIDIA 開發(fā)者發(fā)展經理
14:20 - 14:40
基于 NVIDIA NeMo 框架
的 LLM 部署實踐
NVIDIA NeMo 是 NVIDIA AI 平臺的一部分,是一個端到端云原生企業(yè)框架,用于構建、客戶化和部署具有數(shù)十億參數(shù)的生成式 AI 模型。
NeMo 框架通過多 GPU 和多節(jié)點配置,通過 3D 并行技術加速訓練工作流程,提供多種客戶化技術選擇,以及針對語言和圖像應用的大規(guī)模模型的優(yōu)化推理。NeMo 使企業(yè)的生成式 AI 模型開發(fā)變得簡單、經濟、快速。
本次分享會深度講解 NVIDIA NeMo 框架,以及面向開發(fā)者的 LLM 模型構建、定制和部署。
演講嘉賓
張海辰
NVIDIA 消費互聯(lián)網(wǎng)事業(yè)部解決方案團隊
高級機器學習架構師
14:40 - 15:00
利用 NVIDIA Merlin
訓練部署高性能推薦系統(tǒng)
NVIDIA Merlin 是 NVIDIA AI 平臺的一部分,提供訓練和部署推薦模型的解決方案。本次分享將圍繞 Merlin 的上層 API 和底層加速包展開。
其中,上層 API 包括 Merlin models 和 Merlin systems 。Merlin models 可以幫助開發(fā)者輕松搭建 session-based 以及 transformer 模型,而 Merlin systems 則提供工具搭建端到端的多個 stage 的推薦系統(tǒng)。
底層加速包包括 Distributed-Embeddings (TFDE) 和 Hierarchical Parameter Server (HPS)。TFDE 可以通過 3 行 TF 的 API 輕松實現(xiàn)多機多卡的大模型同步訓練,HPS 則可以通過 GPU cache 和多級存儲加速大模型的部署。
演講嘉賓
高文雯
NVIDIA 產品經理
掃描二維碼即刻報名
相關資料
掃描上方二維碼試用
NVIDIA AI Enterprise
掃描上方二維碼試用 NVIDIA Merlin
掃描上方二維碼立即下載
NVIDIA NeMo Framework
點擊“閱讀原文”,或掃描下方海報二維碼,觀看 NVIDIA 創(chuàng)始人兼 CEO 黃仁勛在 COMPUTEX 2023 的主題演講直播回放,主題演講中文字幕版已上線,了解 AI、圖形及其他領域的最新進展!
原文標題:NVIDIA AI Enterprise 加速 LLM 與推薦系統(tǒng)開發(fā)在線研討會
文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。
-
英偉達
+關注
關注
22文章
3680瀏覽量
90482 -
LLM
+關注
關注
0文章
252瀏覽量
285
原文標題:NVIDIA AI Enterprise 加速 LLM 與推薦系統(tǒng)開發(fā)在線研討會
文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論