0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達(dá)聯(lián)手推出StarCoder2 LLM系列模型,成代碼生成領(lǐng)域新標(biāo)桿

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-02-29 10:14 ? 次閱讀

近期,英偉達(dá)與Hugging Face及ServiceNow攜手推出新品StarCoder2系列LLMs模型,致力于在代碼生成領(lǐng)域建立新的行業(yè)標(biāo)桿,憑借諸多優(yōu)勢凸顯性能、透明度以及經(jīng)濟(jì)性。

此系列共包含三款模型,其中ServiceNow負(fù)責(zé)訓(xùn)練的30億參數(shù)模型、Hugging Face訓(xùn)練的70億參數(shù)模型以及英偉達(dá)訓(xùn)練的150億參數(shù)模型。

新一代模型得以實(shí)現(xiàn),借助Stack v2代碼集,該數(shù)據(jù)集容量是上一代Stack v1的7倍之多。此外,創(chuàng)新性的訓(xùn)練技術(shù)使其能夠更精準(zhǔn)地解析低資源編程語言、數(shù)學(xué)和程序源代碼討論等內(nèi)容。

經(jīng)過619門編程語言的訓(xùn)練后,StarCoder2支持多種專業(yè)任務(wù),例如源代碼生成、工作流創(chuàng)建以及文本摘要等。英偉達(dá)承諾,開發(fā)者可借此進(jìn)行代碼填充、高層次代碼摘要以及代碼片段搜索等操作,以提升工作效率。

相比初版StarCoder LLM,這款30億參數(shù)的最新模型對優(yōu)質(zhì)參數(shù)進(jìn)行了更為精確的篩選,性能相當(dāng)于初版150億參數(shù)模型的StarCoder。

特別值得關(guān)注的是,StarCoder2特許使用BigCode Open RAIL-M許可證,無需支付任何版權(quán)費(fèi)用即可享受使用權(quán)。IT之家建議有需用戶前往BigCode項(xiàng)目GitHub頁面下載源代碼,同時(shí)亦可在Hugging Face獲取模型信息。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 編程語言
    +關(guān)注

    關(guān)注

    10

    文章

    1922

    瀏覽量

    34514
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1199

    瀏覽量

    24595
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3689

    瀏覽量

    90534
收藏 人收藏

    評論

    相關(guān)推薦

    英偉達(dá)推出歸一化Transformer,革命性提升LLM訓(xùn)練速度

    英偉達(dá)團(tuán)隊(duì)近日在AI領(lǐng)域投下了一枚震撼彈,他們提出了一種全新的神經(jīng)網(wǎng)絡(luò)架構(gòu)——?dú)w一化Transformer(nGPT)。這一創(chuàng)新架構(gòu)基于超球面(hypersphere)進(jìn)行表示學(xué)習(xí),為AI領(lǐng)域
    的頭像 發(fā)表于 10-23 11:30 ?231次閱讀

    英偉達(dá)推出Eagle系列模型

    英偉達(dá)最新推出的Eagle系列模型,以其1024×1024像素的高分辨率處理能力,重新定義了視覺信息處理的邊界。該
    的頭像 發(fā)表于 09-03 16:13 ?365次閱讀

    模型LLM與ChatGPT的技術(shù)原理

    與機(jī)器的交互方式。這些技術(shù)通過深度學(xué)習(xí)和自然語言生成(Natural Language Generation, NLG)的結(jié)合,實(shí)現(xiàn)了對復(fù)雜語言任務(wù)的高效處理。本文將深入探討大模型LLM和ChatGPT的技術(shù)原理,并通過
    的頭像 發(fā)表于 07-10 10:38 ?578次閱讀

    llm模型本地部署有用嗎

    在當(dāng)今的人工智能領(lǐng)域LLM(Large Language Model,大型語言模型)已經(jīng)成為了一種非常受歡迎的技術(shù)。它們在自然語言處理(NLP)任務(wù)中表現(xiàn)出色,如文本生成、翻譯、摘要
    的頭像 發(fā)表于 07-09 10:14 ?341次閱讀

    llm模型有哪些格式

    : 基于Transformer的模型 Transformer是一種基于自注意力機(jī)制的模型,廣泛應(yīng)用于NLP領(lǐng)域。基于Transformer的LLM
    的頭像 發(fā)表于 07-09 09:59 ?455次閱讀

    llm模型和chatGPT的區(qū)別

    LLM(Large Language Model)是指大型語言模型,它們是一類使用深度學(xué)習(xí)技術(shù)構(gòu)建的自然語言處理(NLP)模型。LLM模型
    的頭像 發(fā)表于 07-09 09:55 ?739次閱讀

    LLM模型的應(yīng)用領(lǐng)域

    在本文中,我們將深入探討LLM(Large Language Model,大型語言模型)的應(yīng)用領(lǐng)域LLM是一種基于深度學(xué)習(xí)的人工智能技術(shù),它能夠理解和
    的頭像 發(fā)表于 07-09 09:52 ?430次閱讀

    英偉達(dá)開源Nemotron-4 340B系列模型,助力大型語言模型訓(xùn)練

    近日,英偉達(dá)宣布開源了一款名為Nemotron-4 340B的大型模型,這一壯舉為開發(fā)者們打開了通往高性能大型語言模型LLM)訓(xùn)練的新天地
    的頭像 發(fā)表于 06-17 14:53 ?493次閱讀

    英偉達(dá)推出AI模型推理服務(wù)NVIDIA NIM

    英偉達(dá)近日宣布推出一項(xiàng)革命性的AI模型推理服務(wù)——NVIDIA NIM。這項(xiàng)服務(wù)將極大地簡化AI模型部署過程,為全球的2800萬
    的頭像 發(fā)表于 06-04 09:15 ?586次閱讀

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    30 倍,能源效率提高了 25 倍。這些提升使得它能夠更快地處理大規(guī)模的人工智能任務(wù),加速模型的訓(xùn)練和推理過程。 **2. **超級計(jì)算機(jī) 英偉達(dá)
    發(fā)表于 05-13 17:16

    了解大型語言模型 (LLM) 領(lǐng)域中的25個(gè)關(guān)鍵術(shù)語

    的GPT系列、Google的Gemini、AnthropicAI的Claude、Meta的Llama模型等LLMs的發(fā)展,標(biāo)志著自然語言處理領(lǐng)域的重大進(jìn)步。2.訓(xùn)練訓(xùn)練
    的頭像 發(fā)表于 05-10 08:27 ?1174次閱讀
    了解大型語言<b class='flag-5'>模型</b> (<b class='flag-5'>LLM</b>) <b class='flag-5'>領(lǐng)域</b>中的25個(gè)關(guān)鍵術(shù)語

    英偉達(dá)推出生成式AI專業(yè)認(rèn)證

    在人工智能日益成為技術(shù)發(fā)展的核心領(lǐng)域的今天,英偉達(dá)在近日舉行的GTC大會(huì)上將推出生成式AI專業(yè)認(rèn)證。這一創(chuàng)新舉措旨在幫助開發(fā)者、職場人士以及其他相關(guān)人員更好地證明和展示自己在
    的頭像 發(fā)表于 03-19 11:44 ?786次閱讀

    Anthropic發(fā)布Claude3系列模型

    近日,人工智能領(lǐng)域的創(chuàng)新者 Anthropic 宣布推出其備受矚目的 Claude 3 系列大型語言模型LLM)。這一
    的頭像 發(fā)表于 03-06 09:56 ?513次閱讀

    ServiceNow、Hugging Face和NVIDIA發(fā)布StarCoder2助力生成式AI構(gòu)建企業(yè)應(yīng)用

    與 BigCode 社區(qū)共同創(chuàng)建的 StarCoder2 是在 600 多種編程語言上訓(xùn)練而成,它將推進(jìn)代碼生成、透明度、治理和創(chuàng)新。
    的頭像 發(fā)表于 03-01 10:28 ?386次閱讀

    ServiceNow、Hugging Face 和 NVIDIA 發(fā)布全新開放獲取 LLM,助力開發(fā)者運(yùn)用生成式 AI 構(gòu)建企業(yè)應(yīng)用

    2024 年 2 月 28 日 - ServiceNow(NYSE:NOW)、Hugging Face 和 NVIDIA 于今日發(fā)布 StarCoder2,其為一系列用于代碼
    發(fā)表于 02-29 11:12 ?225次閱讀
    ServiceNow、Hugging Face 和 NVIDIA 發(fā)布全新開放獲取 <b class='flag-5'>LLM</b>,助力開發(fā)者運(yùn)用<b class='flag-5'>生成</b>式 AI 構(gòu)建企業(yè)應(yīng)用