0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Eleuther AI:已經(jīng)開源了復(fù)現(xiàn)版GPT-3的模型參數(shù)

深度學(xué)習(xí)自然語言處理 ? 來源:夕小瑤的賣萌屋 ? 作者:小戲 ? 2021-03-31 17:46 ? 次閱讀

GPT3終于開源!不過,不是官方開的(別打我

Eleuther AI推出的名為GPT-Neo的開源項目,于晨4點于twitter正式宣布:已經(jīng)開源了復(fù)現(xiàn)版GPT-3的模型參數(shù)(1.3B和2.7B級別),并將其更新在Colab notebook之上。需要指出的是這次開源的模型里較大的那個版本也只是到了GPT-3商用版里最小模型的參數(shù)量,不過Eleuther AI表示未來會進一步開源10B版本和原始大小版本的GPT3模型參數(shù)。

消息發(fā)布后,立刻被各個大v轉(zhuǎn)發(fā),10小時內(nèi)就已迅速收獲1.5K的點贊量,相應(yīng)的github鏈接也已收獲接近2k star。

▲Twitter原文

但關(guān)于復(fù)現(xiàn)模型的性能,目前只說“實驗表現(xiàn)與原版GPT-3相當”(they performed on par)。具體實驗結(jié)果將于明天公布。

風(fēng)靡一時的擁有1750億超大參數(shù)量,一出道便被視作NLP領(lǐng)域最強AI模型的GPT-3,得益于其龐大的參數(shù)量,使得GPT-3擁有不用接受特定訓(xùn)練與微調(diào),就能在不同NLP領(lǐng)域達到領(lǐng)先水平的強大能力。去年七月,GPT-3被Open-AI以商業(yè)API的形式向公眾開放,并被人們探索出了形形色色的應(yīng)用,從基于問題的搜索,到文本樣式轉(zhuǎn)換,從UI界面設(shè)計,再到自動生成SQL代碼,GPT-3以其卓越的性能展現(xiàn)了其廣闊的應(yīng)用場景,深度學(xué)習(xí)之父Hinton甚至這樣評價道:

如果以GPT-3的出色性能推算未來、生命、宇宙和萬物的答案也不過是4.398萬億個參數(shù)

但是,由于目前GPT-3的使用模式仍然是付費的商業(yè)API,因此并不是所有NLP的研究者都能使用GPT-3完成自己領(lǐng)域的任務(wù)與工作。而由Connor Leahy,Leo Gao和Sid Black三人聯(lián)合創(chuàng)立的Eleuther AI的團隊,于去年11月宣布推出GPT-Neo的開源項目,該項目基于GPT系列的設(shè)計原理,旨在復(fù)現(xiàn)GPT系列的各種項目,在該項目發(fā)布之初,其團隊成員已經(jīng)預(yù)測可以完成GPT-3級別大小的語言模型。

毫無疑問,GPT-3的開源將會催生出一大批NLP技術(shù)的嶄新應(yīng)用,也會以更為低廉的成本釋放人們對NLP未來的想象力。

原文標題:【GPT-3】千呼萬喚始出來——GPT-3終于開源!

文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29395

    瀏覽量

    267689
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3185

    瀏覽量

    42244
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    483

    瀏覽量

    21974

原文標題:【GPT-3】千呼萬喚始出來——GPT-3終于開源!

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    英偉達預(yù)測機器人領(lǐng)域或迎“GPT-3時刻”

    未來2-3年內(nèi),機器人基礎(chǔ)模型的研究將迎來重大突破,這一時刻被形象地比喻為機器人領(lǐng)域的“GPT-3時刻”。
    的頭像 發(fā)表于 09-20 17:05 ?699次閱讀

    Jim Fan展望:機器人領(lǐng)域即將迎來GPT-3式突破

    英偉達科學(xué)家9月19日,科技媒體The Decoder發(fā)布一則引人關(guān)注的報道,英偉達高級科學(xué)家Jim Fan在近期預(yù)測,機器人技術(shù)將在未來兩到三年內(nèi)迎來類似GPT-3在語言處理領(lǐng)域的革命性突破,他稱之為機器人領(lǐng)域的“GPT-3
    的頭像 發(fā)表于 09-19 15:13 ?465次閱讀

    通義千問推出1100億參數(shù)開源模型

    通義千問近日震撼發(fā)布1100億參數(shù)開源模型Qwen1.5-110B,這一舉措標志著通義千問在AI領(lǐng)域邁出了重大步伐。該模型成為通義千問全系
    的頭像 發(fā)表于 05-06 10:49 ?514次閱讀

    微軟發(fā)布phi-3AI模型,性能超越GPT-3.5

    微軟稱,帶有38億參數(shù)的phi-3-mini經(jīng)過3.3萬億token的強化學(xué)習(xí),其基礎(chǔ)表現(xiàn)已經(jīng)超過Mixtral 8x7B及GPT-3.5;此外,該
    的頭像 發(fā)表于 04-23 14:32 ?482次閱讀

    Meta推出最強開源模型Llama 3 要挑戰(zhàn)GPT

    Meta推出最強開源模型Llama 3 要挑戰(zhàn)GPT Facebook母公司Meta Platforms(META.US)推出了開源
    的頭像 發(fā)表于 04-19 17:00 ?751次閱讀

    為什么GPU適用于AI?AI服務(wù)器產(chǎn)業(yè)鏈格局分析

    GPT模型對比BERT模型、T5模型參數(shù)量有明顯提升。GPT-3是目前最大的知名語言
    發(fā)表于 04-09 10:38 ?772次閱讀
    為什么GPU適用于<b class='flag-5'>AI</b>?<b class='flag-5'>AI</b>服務(wù)器產(chǎn)業(yè)鏈格局分析

    全球最強大模型易主,GPT-4被超越

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic宣布推出全新的Claude 3系列模型,其中包括最強版Claude 3 Opus。據(jù)該公司稱,Claude
    的頭像 發(fā)表于 03-05 09:58 ?575次閱讀

    Anthropic推出Claude 3系列模型,全面超越GPT-4,樹立AI新標桿

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic震撼發(fā)布全新的Claude 3系列模型,該系列模型在多模態(tài)和語言能力等關(guān)鍵領(lǐng)域展現(xiàn)出卓越性能,成
    的頭像 發(fā)表于 03-05 09:49 ?593次閱讀

    高分工作!Uni3D:3D基礎(chǔ)大模型,刷新多個SOTA!

    我們主要探索3D視覺中scale up模型參數(shù)量和統(tǒng)一模型架構(gòu)的可能性。在NLP / 2D vision領(lǐng)域,scale up大
    的頭像 發(fā)表于 01-30 15:56 ?716次閱讀
    高分工作!Uni<b class='flag-5'>3</b>D:<b class='flag-5'>3</b>D基礎(chǔ)大<b class='flag-5'>模型</b>,刷新多個SOTA!

    Rambus HBM3內(nèi)存控制器IP速率達到9.6 Gbps

    在人工智能大模型浪潮的推動下,AI訓(xùn)練數(shù)據(jù)集正極速擴增。以ChatGPT為例,去年11月發(fā)布的GPT-3,使用1750億個參數(shù)構(gòu)建,今年3
    的頭像 發(fā)表于 01-23 11:19 ?850次閱讀
    Rambus HBM<b class='flag-5'>3</b>內(nèi)存控制器IP速率達到9.6 Gbps

    【飛騰派4G版免費試用】仙女姐姐的嵌入式實驗室之五~LLaMA.cpp及3B“小模型”O(jiān)penBuddy-StableLM-3B

    和1750億參數(shù)GPT-3都是非常由有競爭力的 MetaAI研究人員認為,當前大模型的高成本阻礙學(xué)術(shù)研究,因此,開發(fā)出這個更小更強的模型
    發(fā)表于 12-22 10:18

    大語言模型簡介:基于大語言模型模型全家桶Amazon Bedrock

    本文基于亞馬遜云科技推出的大語言模型與生成式AI的全家桶:Bedrock對大語言模型進行介紹。大語言模型指的是具有數(shù)十億參數(shù)(B+)的預(yù)訓(xùn)練
    的頭像 發(fā)表于 12-04 15:51 ?709次閱讀

    LLM真的能推理和規(guī)劃嗎?

    在研究人員選擇的模型中,GPT-3 davinci(非指令微調(diào))、GPT-3 textdavinci-001(指令微調(diào))和GPT-3 textdavinci-003(InstructG
    發(fā)表于 11-30 09:45 ?593次閱讀
    LLM真的能推理和規(guī)劃嗎?

    500篇論文!最全代碼大模型綜述

    經(jīng)典 Transformer 使用不可學(xué)習(xí)的余弦編碼,加在模型底層的詞向量輸入上。GPT、BERT將其改為可學(xué)習(xí)的絕對位置編碼,并沿用到了RoBERTa、BART、GPT-2、GPT-3
    的頭像 發(fā)表于 11-17 17:31 ?1173次閱讀

    AI圈巨震!微軟論文聲稱ChatGPT是20B(200億)參數(shù)量的模型

    在top-1中,CODEFUSION的性能與自回歸模型相媲美,甚至在某些情況下表現(xiàn)更出色,尤其是在Python任務(wù)中,只有GPT-3(175B)的性能稍微優(yōu)于CODEFUSION(75M)。然而,在top-3和top-5方面,C
    的頭像 發(fā)表于 11-01 16:23 ?775次閱讀
    <b class='flag-5'>AI</b>圈巨震!微軟論文聲稱ChatGPT是20B(200億)<b class='flag-5'>參數(shù)</b>量的<b class='flag-5'>模型</b>?