0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓(xùn)練數(shù)據(jù)

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2024-09-06 14:59 ? 次閱讀

Nemotron-4 340B 是針對(duì) NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進(jìn)的指導(dǎo)和獎(jiǎng)勵(lì)模型,以及一個(gè)用于生成式 AI 訓(xùn)練的數(shù)據(jù)集。

NVIDIA 于近日發(fā)布Nemotron-4 340B。開發(fā)者可以使用這組開源模型生成用于訓(xùn)練大語言模型(LLM)的合成數(shù)據(jù),訓(xùn)練出的 LLM 可用于醫(yī)療、金融、制造、零售等各個(gè)行業(yè)的商業(yè)應(yīng)用。

高質(zhì)量的訓(xùn)練數(shù)據(jù)對(duì)于自定義 LLM 的性能、準(zhǔn)確性和回答質(zhì)量來說至關(guān)重要,但強(qiáng)大的數(shù)據(jù)集通常非常昂貴且難以獲得。

通過獨(dú)樹一幟的開源模型許可證,Nemotron-4 340B 為開發(fā)者提供了一種免費(fèi)、可擴(kuò)展的合成數(shù)據(jù)生成方法,幫助他們構(gòu)建強(qiáng)大的 LLM。

Nemotron-4 340B 系列包含基礎(chǔ)模型、指導(dǎo)模型和獎(jiǎng)勵(lì)模型,由它們組成的流水線能夠生成用于訓(xùn)練和完善 LLM 的合成數(shù)據(jù)。為了能夠與NVIDIA NeMo協(xié)同工作,這些模型專門進(jìn)行了優(yōu)化。NVIDIA NeMo 是一個(gè)適用于端到端模型訓(xùn)練的開源框架,涵蓋數(shù)據(jù)管護(hù)、定制、評(píng)估等步驟。該系列模型還針對(duì)開源NVIDIA TensorRT-LLM庫(kù)的推理進(jìn)行了優(yōu)化。

Nemotron-4 340B 現(xiàn)已可以從NVIDIA NGC目錄和 Hugging Face 下載。開發(fā)者很快就能在 ai.nvidia.com 上訪問這些模型,它們將被打包成帶有標(biāo)準(zhǔn)應(yīng)用編程接口的NVIDIA NIM微服務(wù),可在任意位置進(jìn)行部署。

將 Nemotron 用于生成合成數(shù)據(jù)

在難以獲得大型多樣化標(biāo)記數(shù)據(jù)集的情況下,這些 LLM 可以幫助開發(fā)者生成合成訓(xùn)練數(shù)據(jù)。

Nemotron-4 340B Instruct模型可生成各種模擬現(xiàn)實(shí)世界數(shù)據(jù)特征的合成數(shù)據(jù),通過提高數(shù)據(jù)質(zhì)量,增強(qiáng)自定義 LLM 在各個(gè)領(lǐng)域的性能和穩(wěn)健性。

隨后,為了提高 AI 生成數(shù)據(jù)的質(zhì)量,開發(fā)者可以使用Nemotron-4 340B Reward模型來篩選高質(zhì)量的回答。Nemotron-4 340B Reward 模型根據(jù)五個(gè)方面對(duì)回答進(jìn)行評(píng)分,這五個(gè)方面分別是:有用性、正確性、連貫性、復(fù)雜性和冗長(zhǎng)性。該模型目前在 AI2 專為評(píng)估獎(jiǎng)勵(lì)模型能力、安全性和缺陷而創(chuàng)建的“Hugging Face RewardBench 排行榜”上排名第一。

wKgZombaqFaAYqNYAAEgri7KFqc769.jpg

在這個(gè)合成數(shù)據(jù)生成流水線中,(1)Nemotron-4 340B Instruct 模型首先生成基于文本的合成輸出。然后來到評(píng)估模型,

(2)Nemotron-4 340B Reward 模型對(duì)生成的文本進(jìn)行評(píng)估,并提供指導(dǎo)反復(fù)改進(jìn)的反饋,確保合成數(shù)據(jù)準(zhǔn)確、相關(guān)且符合特定要求。

研究者還可以使用自己的專有數(shù)據(jù),并結(jié)合隨附的HelpSteer2 數(shù)據(jù)集自定義 Nemotron-4 340B Base 模型,創(chuàng)造出自己的指導(dǎo)或獎(jiǎng)勵(lì)模型。

使用 NeMo 進(jìn)行微調(diào)

并使用 TensorRT-LLM 優(yōu)化推理

開發(fā)者可以使用開源的 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 提高其指導(dǎo)和獎(jiǎng)勵(lì)模型的效率,以便生成合成數(shù)據(jù)并對(duì)回答進(jìn)行評(píng)分。

所有 Nemotron-4 340B 模型均使用 TensorRT-LLM 優(yōu)化,能夠利用張量并行性,這是一種模型并行技術(shù),通過將單個(gè)權(quán)重矩陣分割到多個(gè) GPU 和服務(wù)器上,實(shí)現(xiàn)大規(guī)模的高效推理。

Nemotron-4 340B Base在 9 萬億個(gè) token 上訓(xùn)練而成。可使用 NeMo 框架對(duì)它進(jìn)行自定義,使其適應(yīng)特定的用例或領(lǐng)域。這一微調(diào)過程得益于大量的預(yù)訓(xùn)練數(shù)據(jù),使模型能夠針對(duì)特定的下游任務(wù)提供更加準(zhǔn)確的輸出。

NeMo 框架提供多種自定義方法,包括有監(jiān)督的微調(diào)和各種參數(shù)高效微調(diào)方法,比如低秩自適應(yīng)(LoRA)。

為了提升模型質(zhì)量,開發(fā)者可以使用NeMo Aligner以及由 Nemotron-4 340B Reward 模型注釋的數(shù)據(jù)集對(duì)齊模型。校準(zhǔn)是 LLM 訓(xùn)練過程中的一個(gè)關(guān)鍵步驟。在該步驟中,模型的行為通過人類反饋強(qiáng)化學(xué)習(xí)(RLHF)等算法進(jìn)行微調(diào),以保證其輸出結(jié)果安全、準(zhǔn)確、符合上下文并與其預(yù)期目標(biāo)一致。

尋求企業(yè)級(jí)支持和生產(chǎn)環(huán)境安全性的企業(yè)也可以通過NVIDIA AI Enterprise云原生軟件平臺(tái)訪問 NeMo 和 TensorRT-LLM。該平臺(tái)為生成式 AI 基礎(chǔ)模型提供更加快速和高效的運(yùn)行時(shí)。

評(píng)估模型安全性并開始使用

Nemotron-4 340B Instruct 模型經(jīng)過包括對(duì)抗測(cè)試在內(nèi)的大量安全性評(píng)估,其各項(xiàng)風(fēng)險(xiǎn)指標(biāo)均表現(xiàn)良好。但用戶仍應(yīng)對(duì)該模型的輸出結(jié)果進(jìn)行仔細(xì)評(píng)估,確保合成生成的數(shù)據(jù)適合且安全而準(zhǔn)確地用于自己的用例。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4814

    瀏覽量

    102629
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3054

    瀏覽量

    48569
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    252

    瀏覽量

    285

原文標(biāo)題:NVIDIA 發(fā)布適用于訓(xùn)練大語言模型的開源合成數(shù)據(jù)生成流水線

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

    借助 NVIDIA AI Foundry,企業(yè)和各國(guó)現(xiàn)在能夠使用自有數(shù)據(jù)與 Llama 3.1 405BNVIDIA Nemotron
    發(fā)表于 07-24 09:39 ?661次閱讀
    <b class='flag-5'>NVIDIA</b> AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 <b class='flag-5'>生成</b>式 AI <b class='flag-5'>模型</b>

    在Ubuntu上使用Nvidia GPU訓(xùn)練模型

    問題最近在Ubuntu上使用Nvidia GPU訓(xùn)練模型的時(shí)候,沒有問題,過一會(huì)再訓(xùn)練出現(xiàn)非??D,使用nvidia-smi查看發(fā)現(xiàn),顯示G
    發(fā)表于 01-03 08:24

    2021 OPPO開發(fā)者大會(huì):NLP預(yù)訓(xùn)練模型

    2021 OPPO開發(fā)者大會(huì):NLP預(yù)訓(xùn)練模型 2021 OPPO開發(fā)者大會(huì)上介紹了融合知識(shí)的NLP預(yù)訓(xùn)練
    的頭像 發(fā)表于 10-27 14:18 ?1685次閱讀
    2021 OPPO<b class='flag-5'>開發(fā)者</b>大會(huì):NLP預(yù)<b class='flag-5'>訓(xùn)練</b>大<b class='flag-5'>模型</b>

    2021年OPPO開發(fā)者大會(huì) 融合知識(shí)的NLP預(yù)訓(xùn)練模型

    2021年OPPO開發(fā)者大會(huì)劉海鋒:融合知識(shí)的NLP預(yù)訓(xùn)練模型,知識(shí)融合學(xué)習(xí)運(yùn)用在小布助手里面。
    的頭像 發(fā)表于 10-27 14:48 ?2388次閱讀
    2021年OPPO<b class='flag-5'>開發(fā)者</b>大會(huì) 融合知識(shí)的NLP預(yù)<b class='flag-5'>訓(xùn)練</b>大<b class='flag-5'>模型</b>

    NVIDIA提供用于AI訓(xùn)練合成數(shù)據(jù)生成工具

    提供合成數(shù)據(jù)生成工具和服務(wù)的企業(yè)以及開發(fā)者現(xiàn)在可以使用 Omniverse Replicator SDK 構(gòu)建自定義、物理級(jí)精確的合成數(shù)據(jù)生成
    的頭像 發(fā)表于 07-03 10:06 ?1702次閱讀

    NVIDIA NeMo最新語言模型服務(wù)幫助開發(fā)者定制大規(guī)模語言模型

    NVIDIA NeMo 大型語言模型(LLM)服務(wù)幫助開發(fā)者定制大規(guī)模語言模型;NVIDIA B
    發(fā)表于 09-22 10:42 ?881次閱讀

    一文看懂 DRIVE Replicator:合成數(shù)據(jù)生成加速自動(dòng)駕駛汽車的開發(fā)和驗(yàn)證

    在長(zhǎng)尾場(chǎng)景訓(xùn)練的最新進(jìn)展和相關(guān)經(jīng)驗(yàn),特別是探討開發(fā)者如何使用 DRIVE Replicator 生成多樣化的合成數(shù)據(jù)集,以及準(zhǔn)確的真值數(shù)據(jù)標(biāo)
    的頭像 發(fā)表于 11-10 11:00 ?570次閱讀

    使用 NVIDIA TAO 工具套件和預(yù)訓(xùn)練模型加快 AI 開發(fā)

    可以訪問預(yù)訓(xùn)練模型的完整源代碼和模型權(quán)重。 該工具套件能夠高效訓(xùn)練視覺和對(duì)話式 AI 模型。由于簡(jiǎn)化了復(fù)雜的 AI
    的頭像 發(fā)表于 12-15 19:40 ?950次閱讀

    Rendered.ai 將 NVIDIA Omniverse 集成到其合成數(shù)據(jù)生成平臺(tái)

    合成數(shù)據(jù)生成(SDG)平臺(tái)即服務(wù)(PaaS)為開發(fā)者、數(shù)據(jù)科學(xué)家等人員簡(jiǎn)化 AI 訓(xùn)練訓(xùn)練計(jì)
    的頭像 發(fā)表于 07-12 19:10 ?482次閱讀
    Rendered.ai 將 <b class='flag-5'>NVIDIA</b> Omniverse 集成到其<b class='flag-5'>合成數(shù)據(jù)</b><b class='flag-5'>生成</b>平臺(tái)

    NVIDIA 與 Hugging Face 將連接數(shù)百萬開發(fā)者生成式 AI 超級(jí)計(jì)算

    8 月 8 日 — NVIDIA 與 Hugging Face 宣布建立合作伙伴關(guān)系,為數(shù)百萬開發(fā)者提供生成式 AI 超級(jí)計(jì)算服務(wù),幫助他們構(gòu)建大語言
    發(fā)表于 08-09 11:41 ?180次閱讀
    <b class='flag-5'>NVIDIA</b> 與 Hugging Face 將連接數(shù)百萬<b class='flag-5'>開發(fā)者</b>與<b class='flag-5'>生成</b>式 AI 超級(jí)計(jì)算

    NVIDIA 加快企業(yè)自定義生成式 AI 模型開發(fā)

    的業(yè)務(wù)數(shù)據(jù)進(jìn)行自定義。 如今,免費(fèi)、開源的大語言模型對(duì)企業(yè)來說就像是一頓“自助餐”。但對(duì)于構(gòu)建自定義生成式 AI 應(yīng)用的開發(fā)者來說,這頓“大餐”可能會(huì)讓他們應(yīng)接不暇,因?yàn)樗麄冃枰獫M足各
    的頭像 發(fā)表于 11-16 21:15 ?522次閱讀
    <b class='flag-5'>NVIDIA</b> 加快企業(yè)自定義<b class='flag-5'>生成</b>式 AI <b class='flag-5'>模型</b><b class='flag-5'>開發(fā)</b>

    NVIDIA 為部分大型亞馬遜 Titan 基礎(chǔ)模型提供訓(xùn)練支持

    GPU 和海量的數(shù)據(jù)集上所訓(xùn)練而成。 不過這可能會(huì)給想要使用生成式 AI 的企業(yè)帶來很多巨大的挑戰(zhàn)。 NVIDIA NeMo (一個(gè)用于構(gòu)建、自定義和運(yùn)行 LLM 的框架)能夠
    的頭像 發(fā)表于 11-29 21:15 ?478次閱讀
    <b class='flag-5'>NVIDIA</b> 為部分大型亞馬遜 Titan 基礎(chǔ)<b class='flag-5'>模型</b>提供<b class='flag-5'>訓(xùn)練</b>支持

    NVIDIA NIM 革命性地改變模型部署,將全球數(shù)百萬開發(fā)者轉(zhuǎn)變?yōu)?b class='flag-5'>生成式 AI 開發(fā)者

    部署在云、數(shù)據(jù)中心或工作站上。借助 NVIDIA NIM,開發(fā)者能夠輕松地為 copilots、聊天機(jī)器人等構(gòu)建生成式 AI 應(yīng)用,所需時(shí)間從
    發(fā)表于 06-03 09:12 ?198次閱讀
    <b class='flag-5'>NVIDIA</b> NIM 革命性地改變<b class='flag-5'>模型</b>部署,將全球數(shù)百萬<b class='flag-5'>開發(fā)者</b>轉(zhuǎn)變?yōu)?b class='flag-5'>生成</b>式 AI <b class='flag-5'>開發(fā)者</b>

    NVIDIA將全球數(shù)百萬開發(fā)者轉(zhuǎn)變?yōu)?b class='flag-5'>生成式 AI 開發(fā)者

    和測(cè)試 ? NVIDIA 于今日宣布,全球 2,800 萬開發(fā)者現(xiàn)可下載NVIDIA NIM——一種推理微服務(wù),通過經(jīng)優(yōu)化的容器的形式提供模型——以部署在云、
    的頭像 發(fā)表于 06-03 18:21 ?944次閱讀

    英偉達(dá)開源Nemotron-4 340B系列模型,助力大型語言模型訓(xùn)練

    近日,英偉達(dá)宣布開源了一款名為Nemotron-4 340B的大型模型,這一壯舉為開發(fā)者們打開了通往高性能大型語言模型(LLM)
    的頭像 發(fā)表于 06-17 14:53 ?488次閱讀