0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA助力微軟將AI Transformer模型投入生產(chǎn)用途

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2022-03-28 09:43 ? 次閱讀

Microsoft 的目標(biāo)是,通過結(jié)合使用 Azure 與 NVIDIA GPU 和 Triton 推理軟件,率先將一系列強(qiáng)大的 AI Transformer 模型投入生產(chǎn)用途。

如果您的軟件能喚起人們喜悅的淚水,您就是在傳播歡樂。

Translator 是一項(xiàng) Microsoft Azure 認(rèn)知服務(wù),通過應(yīng)用一些規(guī)模龐大的 AI 模型來幫助更多人進(jìn)行交流。

“有太多精彩的故事可以講了!” Translator 開發(fā)經(jīng)理 Vishal Chowdhary 表示。

比如,在 2010 年海地遭受 7.0 級地震后,在短短 5 天的沖刺期里為相關(guān)應(yīng)用緊急添加海地克里奧爾語支持,進(jìn)而為救援人員提供幫助。再比如,祖父母在使用這款軟件,與講著他們不懂的語言的遠(yuǎn)方孫輩進(jìn)行第一次實(shí)時(shí)交流時(shí),感動到哽咽。

雄心勃勃的目標(biāo)

“我們的愿景是,讓成千上萬的開發(fā)者都已經(jīng)在使用的這個(gè) API,能打破不同語言、不同模式之間的阻礙?!?Chowdhary 說。

考量全球現(xiàn)行的語言大約有 7000 種,這真的是個(gè)雄心勃勃的目標(biāo)。

因此,團(tuán)隊(duì)采用了一種強(qiáng)大而復(fù)雜的工具,即是混合專家系統(tǒng)(MoE)AI 方法。

在推動自然語言處理快速發(fā)展進(jìn)步的 Transformer 模型中,這是非常先進(jìn)的一種。它具有 50 億個(gè)參數(shù),其規(guī)模比團(tuán)隊(duì)在生產(chǎn)過程中用于自然語言處理的最大模型大了 80 倍。

MoE 模型涉及到龐大的計(jì)算量,很難找到能將其投入生產(chǎn)環(huán)境中使用的用戶。在初始測試中,基于 CPU 的服務(wù)器無法滿足團(tuán)隊(duì)要在一秒鐘內(nèi)完成翻譯一個(gè)文檔的要求。

27 倍的提速

隨后,該團(tuán)隊(duì)使用 NVIDIA Triton 推理服務(wù)器(本周 GTC 大會上宣布的 NVIDIA AI Enterprise 2.0 平臺的其中一部分)在加速系統(tǒng)上進(jìn)行了測試。

Chowdhary 說:“借助 NVIDIA GPU 和 Triton,我們得以實(shí)現(xiàn)這一目標(biāo),且非常高效?!?/p>

事實(shí)上,相較于未經(jīng)優(yōu)化的 GPU 運(yùn)行時(shí),該團(tuán)隊(duì)實(shí)現(xiàn)了高達(dá) 27 倍的提速。

“這讓我們可以構(gòu)建一個(gè)模型來執(zhí)行不同的語言理解任務(wù),例如匯總、生成文本和翻譯等,而不必為每個(gè)任務(wù)開發(fā)單獨(dú)的模型?!?負(fù)責(zé)監(jiān)督測試的 Microsoft 首席研究員 Hanny Hassan Awadalla 表示。

Triton 如何提供幫助

Microsoft 的模型能將大型任務(wù)(如翻譯多個(gè)文檔)拆分為許多個(gè)小任務(wù),在每個(gè)小任務(wù)中翻譯幾百個(gè)句子。Triton 的動態(tài)批處理功能將諸多此類請求整合起來,從而充分利用 GPU 的強(qiáng)大功能。

對于 Triton 使用 CPU、GPU 或其他加速器在各種模式下運(yùn)行各種模型的能力,讓該團(tuán)隊(duì)贊不絕口。

Chowdhary 的團(tuán)隊(duì)十多年來一直在開發(fā)大規(guī)模分布式系統(tǒng)。Chowdhary 表示:“這種解決方案周到地考慮了我的工作場景,提供了我想要的各種功能,就像是我給自己親手定制的解決方案一樣。

在幕后,有兩個(gè)軟件組件是 Triton 取得成功的關(guān)鍵。一個(gè)是 NVIDIA 擴(kuò)展型 FasterTransformer,這是一個(gè)處理推理計(jì)算的軟件層,可支持 MoE 模型。另一個(gè)是 CUTLASS,這是一個(gè) NVIDIA 數(shù)學(xué)庫,有助于高效實(shí)現(xiàn)模型。

在四周內(nèi)提供已驗(yàn)證的原型

盡管測試十分復(fù)雜,但該團(tuán)隊(duì)通過與 NVIDIA 工程師合作并運(yùn)用 Triton 的強(qiáng)大力量,在不到一個(gè)月的時(shí)間內(nèi)就獲得了可投入正常運(yùn)轉(zhuǎn)的端到端原型。

“在如此之短的時(shí)間內(nèi)制作出一款達(dá)到可發(fā)布程度的產(chǎn)品,這樣的效率實(shí)在令人印象深刻,對此我真的非常感激?!?Awadalla 這樣說道。

雖然這是該團(tuán)隊(duì)第一次使用 Triton,但 “我們使用它來發(fā)布 MoE 模型,不用花費(fèi)太多力氣就重新構(gòu)建了運(yùn)行時(shí)環(huán)境,現(xiàn)在我衷心希望在我們的長期托管系統(tǒng)中納入這款解決方案?!?Chowdhary 補(bǔ)充表示。

采取后續(xù)措施

加速后的服務(wù)將采用審慎的步驟實(shí)施,初期會用于少數(shù)幾種主要語言的文檔翻譯。

Chowdhary 表示:“我們的最終目標(biāo)是,讓客戶能在所有場景中通過透明的方式獲享這些新模型的優(yōu)點(diǎn)?!?/p>

這項(xiàng)工作是 Microsoft 的一項(xiàng)涉獵更廣泛的計(jì)劃的一部分。其目的是推動 Office 和 Teams 等眾多產(chǎn)品的進(jìn)步,幫助各類開發(fā)者與客戶(從專注于打造一款應(yīng)用的小型公司到財(cái)富 500 強(qiáng)企業(yè))取得發(fā)展。

為了給這一計(jì)劃鋪平道路,Awadalla 的團(tuán)隊(duì)于去年 9 月發(fā)表了一項(xiàng)研究成果,介紹如何在 NVIDIA A100 Tensor Core GPU 上訓(xùn)練具有多達(dá) 2 千億個(gè)參數(shù)的 MoE 模型。自那之后,該團(tuán)隊(duì)還在具有超過 3 千億個(gè)參數(shù)的模型上使用 80G 版本的 A100 GPU,將性能提升了 8 倍。

Adawalla 表示:“為了更好地表示更多的語言,尤其是我們手頭沒有太多數(shù)據(jù)的語言,模型必定會越來越大?!?/p>

原文標(biāo)題:GTC22 | 促進(jìn)人際交流:微軟使用 NVIDIA Triton 改善 Translator 翻譯工具的 AI 質(zhì)量和效率

文章出處:【微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6540

    瀏覽量

    103821
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4818

    瀏覽量

    102644
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    27

    文章

    4638

    瀏覽量

    128464
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29429

    瀏覽量

    267730

原文標(biāo)題:GTC22 | 促進(jìn)人際交流:微軟使用 NVIDIA Triton 改善 Translator 翻譯工具的 AI 質(zhì)量和效率

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    使用bq275xx投入生產(chǎn)

    電子發(fā)燒友網(wǎng)站提供《使用bq275xx投入生產(chǎn).pdf》資料免費(fèi)下載
    發(fā)表于 10-18 11:34 ?0次下載
    使用bq275xx<b class='flag-5'>投入生產(chǎn)</b>

    NVIDIA NIM助力企業(yè)高效部署生成式AI模型

    Canonical、Nutanix 和 Red Hat 等廠商的開源 Kubernetes 平臺集成了 NVIDIA NIM,允許用戶通過 API 調(diào)用來大規(guī)模地部署大語言模型。
    的頭像 發(fā)表于 10-10 09:49 ?290次閱讀

    NVIDIA CorrDiff生成式AI模型能夠精準(zhǔn)預(yù)測臺風(fēng)

    NVIDIA GPU 上運(yùn)行的一個(gè)擴(kuò)散模型向天氣預(yù)報(bào)工作者展示了加速計(jì)算如何實(shí)現(xiàn)新的用途并提升能效。
    的頭像 發(fā)表于 09-13 17:13 ?581次閱讀

    NVIDIA助力提供多樣、靈活的模型選擇

    在本案例中,Dify 以模型中立以及開源生態(tài)的優(yōu)勢,為廣大 AI 創(chuàng)新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton 推理服務(wù)器
    的頭像 發(fā)表于 09-09 09:19 ?381次閱讀

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

    借助 NVIDIA AI Foundry,企業(yè)和各國現(xiàn)在能夠使用自有數(shù)據(jù)與 Llama 3.1 405B 和 NVIDIA Nemotron 模型配對,來構(gòu)建“超級
    發(fā)表于 07-24 09:39 ?664次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>

    揭秘NVIDIA AI Workbench 如何助力應(yīng)用開發(fā)

    能夠根據(jù)其具體需求調(diào)整 AI 模型。 此類工作在過去可能需要復(fù)雜的設(shè)置,而新工具使這項(xiàng)工作變得空前簡單。 NVIDIA AI Workbench 可協(xié)助
    發(fā)表于 07-10 18:51 ?584次閱讀
    揭秘<b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Workbench 如何<b class='flag-5'>助力</b>應(yīng)用開發(fā)

    Transformer語言模型簡介與實(shí)現(xiàn)過程

    任務(wù),隨后迅速擴(kuò)展到其他NLP任務(wù)中,如文本生成、語言理解、問答系統(tǒng)等。本文詳細(xì)介紹Transformer語言模型的原理、特點(diǎn)、優(yōu)勢以及實(shí)現(xiàn)過程。
    的頭像 發(fā)表于 07-10 11:48 ?944次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領(lǐng)域取得了巨大的成功,并成為了許多先進(jìn)模型(如BERT、GPT等)的基礎(chǔ)。本文深入解讀如何使用PyTorch框架搭建
    的頭像 發(fā)表于 07-02 11:41 ?1321次閱讀

    英偉達(dá)推出AI模型推理服務(wù)NVIDIA NIM

    英偉達(dá)近日宣布推出一項(xiàng)革命性的AI模型推理服務(wù)——NVIDIA NIM。這項(xiàng)服務(wù)極大地簡化AI模型
    的頭像 發(fā)表于 06-04 09:15 ?584次閱讀

    微軟推出自研AI模型

    微軟正在緊鑼密鼓地訓(xùn)練一款全新的自研人工智能大模型——“MAI-1”。據(jù)悉,這款模型規(guī)模龐大,足以與谷歌的Gemini和OpenAI的ChatGPT相媲美。
    的頭像 發(fā)表于 05-13 11:30 ?611次閱讀

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個(gè)開源庫,用于優(yōu)化從 PC 到云端的
    的頭像 發(fā)表于 04-28 10:36 ?445次閱讀

    微軟攜手法國AI初創(chuàng)企業(yè)Mistral推動AI模型商業(yè)化

    微軟近日與法國人工智能初創(chuàng)企業(yè)Mistral達(dá)成合作協(xié)議,旨在推動AI模型的商業(yè)化應(yīng)用。據(jù)悉,微軟提供全方位支持,幫助這家成立僅10個(gè)月的
    的頭像 發(fā)表于 02-28 10:23 ?457次閱讀

    讓pytorch模型更快速投入生產(chǎn)的方法

    大家好,非常感謝大家的加入。我是馬克,在推理和PyTorch方面有著豐富的經(jīng)驗(yàn)。今天我想和大家談?wù)勔环N讓你的模型快速投入生產(chǎn)的方法。訓(xùn)練模型的過程非常艱難,你需要花費(fèi)大量時(shí)間和計(jì)算資源。但是推理
    的頭像 發(fā)表于 01-19 10:38 ?457次閱讀
    讓pytorch<b class='flag-5'>模型</b>更快速<b class='flag-5'>投入生產(chǎn)</b>的方法

    NVIDIA微軟 Ignite 2023 技術(shù)大會帶來多項(xiàng)發(fā)布!

    隨著微軟 Ignite 2023 技術(shù)大會的召開,NVIDIA 帶來了一系列發(fā)布和更新。這次發(fā)布涵蓋了企業(yè)級生成式 AI、Omniverse 和 RTX 等重要內(nèi)容。 微軟首席執(zhí)行官
    的頭像 發(fā)表于 11-16 21:35 ?653次閱讀
    <b class='flag-5'>NVIDIA</b> 在<b class='flag-5'>微軟</b> Ignite 2023 技術(shù)大會帶來多項(xiàng)發(fā)布!

    利用 NVIDIA Jetson 實(shí)現(xiàn)生成式 AI

    近日,NVIDIA 發(fā)布了 Jetson 生成式 AI 實(shí)驗(yàn)室(Jetson Generative AI Lab),使開發(fā)者能夠通過 NVIDIA Jetson 邊緣設(shè)備在現(xiàn)實(shí)世界中探
    的頭像 發(fā)表于 11-07 21:25 ?854次閱讀
    利用 <b class='flag-5'>NVIDIA</b> Jetson 實(shí)現(xiàn)生成式 <b class='flag-5'>AI</b>