0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

日本團(tuán)隊(duì)發(fā)布在富岳超算上訓(xùn)練的Fugaku-LLM大模型

微云疏影 ? 來(lái)源:綜合整理 ? 作者:綜合整理 ? 2024-05-11 10:05 ? 次閱讀

5月11日訊,多方企業(yè)與機(jī)構(gòu)聯(lián)手的日本研究小組昨日公布了Fugaku-LLM大型模型。該模型最大特點(diǎn)在于在Arm架構(gòu)超算“富岳”上完成了訓(xùn)練。

自2023年5月起,F(xiàn)ugaku-LLM模型的開(kāi)發(fā)工作開(kāi)始展開(kāi),最初參與團(tuán)隊(duì)包括富士通、東京工業(yè)大學(xué)、日本東北大學(xué)以及日本理化學(xué)研究所(簡(jiǎn)稱(chēng)理研)。

至同年8月,又有三家合作伙伴——名古屋大學(xué)、CyberAgent(同時(shí)也是游戲巨頭Cygames的母公司)及HPC-AI領(lǐng)域創(chuàng)新企業(yè)Kotoba Technologies加入項(xiàng)目。

研究團(tuán)隊(duì)在昨日的新聞發(fā)布會(huì)上表示,他們成功利用富岳超算的強(qiáng)大性能,使矩陣乘法運(yùn)算速度提升6倍,通信速度提高3倍,從而證明大型純CPU超算同樣適用于大模型訓(xùn)練。

Fugaku-LLM模型參數(shù)規(guī)模達(dá)13B,成為日本國(guó)內(nèi)最大的大型語(yǔ)言模型。

該模型采用13824個(gè)富岳超算節(jié)點(diǎn),在3800億個(gè)Token上進(jìn)行訓(xùn)練,其中60%為日語(yǔ)數(shù)據(jù),其余40%涵蓋英語(yǔ)、數(shù)學(xué)、代碼等內(nèi)容。

研究團(tuán)隊(duì)表示,F(xiàn)ugaku-LLM模型能夠在交流過(guò)程中自然運(yùn)用日語(yǔ)敬語(yǔ)等特殊表達(dá)方式。

在測(cè)試結(jié)果方面,該模型在日語(yǔ)MT-Bench模型基準(zhǔn)測(cè)試中的平均得分高達(dá)5.5,位列基于日本語(yǔ)料資源的開(kāi)放模型之首;在人文社科類(lèi)別的測(cè)試中更獲得了9.18的高分。

現(xiàn)如今,F(xiàn)ugaku-LLM模型已在GitHub和Hugging Face平臺(tái)公開(kāi)發(fā)布,外部研究人員和工程師可在遵循許可協(xié)議的基礎(chǔ)上,將該模型應(yīng)用于學(xué)術(shù)和商業(yè)領(lǐng)域。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10772

    瀏覽量

    210453
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3062

    瀏覽量

    48575
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    491

    瀏覽量

    10226
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2217

    瀏覽量

    2237
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    端到端InfiniBand網(wǎng)絡(luò)解決LLM訓(xùn)練瓶頸

    的,這需要大量的計(jì)算資源和高速數(shù)據(jù)傳輸網(wǎng)絡(luò)。端到端InfiniBand(IB)網(wǎng)絡(luò)作為高性能計(jì)算和AI模型訓(xùn)練的理想選擇,發(fā)揮著重要作用。本文中,我們將深入探討大型語(yǔ)言模型
    的頭像 發(fā)表于 10-23 11:26 ?87次閱讀
    端到端InfiniBand網(wǎng)絡(luò)解決<b class='flag-5'>LLM</b><b class='flag-5'>訓(xùn)練</b>瓶頸

    大語(yǔ)言模型的預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語(yǔ)言模型的預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過(guò)海量無(wú)標(biāo)簽數(shù)據(jù)上進(jìn)行訓(xùn)練,使模型學(xué)習(xí)到語(yǔ)言的通用知識(shí)
    的頭像 發(fā)表于 07-11 10:11 ?320次閱讀

    LLM預(yù)訓(xùn)練的基本概念、基本原理和主要優(yōu)勢(shì)

    人工智能和自然語(yǔ)言處理(NLP)領(lǐng)域,大型語(yǔ)言模型(Large Language Model,簡(jiǎn)稱(chēng)LLM)的興起極大地推動(dòng)了技術(shù)的進(jìn)步和應(yīng)用的發(fā)展。LLM通過(guò)
    的頭像 發(fā)表于 07-10 11:03 ?833次閱讀

    llm模型訓(xùn)練一般用什么系統(tǒng)

    LLM(Large Language Model,大型語(yǔ)言模型)是近年來(lái)自然語(yǔ)言處理領(lǐng)域取得顯著成果的一種深度學(xué)習(xí)模型。它通常需要大量的計(jì)算資源和數(shù)據(jù)來(lái)進(jìn)行
    的頭像 發(fā)表于 07-09 10:02 ?289次閱讀

    llm模型有哪些格式

    LLM(Large Language Model,大型語(yǔ)言模型)是一種深度學(xué)習(xí)模型,主要用于處理自然語(yǔ)言處理(NLP)任務(wù)。LLM模型的格式
    的頭像 發(fā)表于 07-09 09:59 ?443次閱讀

    LLM模型和LMM模型的區(qū)別

    在重復(fù)測(cè)量或分層數(shù)據(jù)中。 LMM(線(xiàn)性混合效應(yīng)模型)是一種特殊類(lèi)型的線(xiàn)性混合模型,它包括固定效應(yīng)和隨機(jī)效應(yīng)。它通常用于分析具有多個(gè)層次的數(shù)據(jù)結(jié)構(gòu),例如在多層次或分組數(shù)據(jù)中。 固定效應(yīng)與隨機(jī)效應(yīng):
    的頭像 發(fā)表于 07-09 09:57 ?565次閱讀

    llm模型和chatGPT的區(qū)別

    LLM(Large Language Model)是指大型語(yǔ)言模型,它們是一類(lèi)使用深度學(xué)習(xí)技術(shù)構(gòu)建的自然語(yǔ)言處理(NLP)模型。LLM模型
    的頭像 發(fā)表于 07-09 09:55 ?709次閱讀

    LLM模型的應(yīng)用領(lǐng)域

    本文中,我們將深入探討LLM(Large Language Model,大型語(yǔ)言模型)的應(yīng)用領(lǐng)域。LLM是一種基于深度學(xué)習(xí)的人工智能技術(shù),它能夠理解和生成自然語(yǔ)言文本。近年來(lái),隨著計(jì)
    的頭像 發(fā)表于 07-09 09:52 ?407次閱讀

    大語(yǔ)言模型(LLM)快速理解

    自2022年,ChatGPT發(fā)布之后,大語(yǔ)言模型(LargeLanguageModel),簡(jiǎn)稱(chēng)LLM掀起了一波狂潮。作為學(xué)習(xí)理解LLM的開(kāi)始,先來(lái)整體理解一下大語(yǔ)言
    的頭像 發(fā)表于 06-04 08:27 ?796次閱讀
    大語(yǔ)言<b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)快速理解

    訓(xùn)練模型,不浪費(fèi)一丁點(diǎn)計(jì)算資源

    政府也投入到LLM的計(jì)算資源整合中來(lái),從而不至于落后這輪新的全球技術(shù)軍備戰(zhàn)。同樣的計(jì)算資源競(jìng)爭(zhēng)也發(fā)生在算領(lǐng)域,而兩者的計(jì)算資源存在一定的重合,不少人開(kāi)始借助算來(lái)進(jìn)行LLM的開(kāi)發(fā)。
    的頭像 發(fā)表于 05-20 07:08 ?650次閱讀

    富士通使用富岳超級(jí)計(jì)算機(jī)訓(xùn)練LLM

    盡管富士通的富岳超級(jí)計(jì)算機(jī)不再是超級(jí)計(jì)算機(jī)500強(qiáng)名單中最快的機(jī)器,但它仍然是一個(gè)非常強(qiáng)大的系統(tǒng),A64FX處理器的多功能性允許將其用于各種工作負(fù)載,例如AI。
    的頭像 發(fā)表于 05-13 14:18 ?475次閱讀

    日本富岳助力構(gòu)建大規(guī)模語(yǔ)言模型Fugaku-LLM

    昨日公布的新聞稿中,研究團(tuán)隊(duì)表示他們成功發(fā)掘了富岳超級(jí)計(jì)算機(jī)的潛能,使矩陣乘法運(yùn)算速度提升六倍,通信速度提高三倍,從而證實(shí)大型純CPU超級(jí)計(jì)算機(jī)同樣適用于大模型
    的頭像 發(fā)表于 05-11 17:07 ?846次閱讀

    基于NVIDIA Megatron Core的MOE LLM實(shí)現(xiàn)和訓(xùn)練優(yōu)化

    本文將分享阿里云人工智能平臺(tái) PAI 團(tuán)隊(duì)與 NVIDIA Megatron-Core 團(tuán)隊(duì) MoE (Mixture of Experts) 大語(yǔ)言模型
    的頭像 發(fā)表于 03-22 09:50 ?648次閱讀
    基于NVIDIA Megatron Core的MOE <b class='flag-5'>LLM</b>實(shí)現(xiàn)和<b class='flag-5'>訓(xùn)練</b>優(yōu)化

    2023年LLM模型研究進(jìn)展

    作為做LLM應(yīng)用的副產(chǎn)品,我們提出了RLCD[11],通過(guò)同時(shí)使用正例和負(fù)例prompt,自動(dòng)生成帶標(biāo)簽的生成樣本不需人工標(biāo)注,然后可以接大模型微調(diào),或者用于訓(xùn)練reward models
    發(fā)表于 01-19 13:55 ?442次閱讀

    NVIDIA 為部分大型亞馬遜 Titan 基礎(chǔ)模型提供訓(xùn)練支持

    本文將介紹亞馬遜如何使用 NVIDIA NeMo 框架、GPU 以及亞馬遜云科技的 EFA 來(lái)訓(xùn)練其 最大的新一代大語(yǔ)言模型LLM)。 大語(yǔ)言模型的一切都很龐大——巨型
    的頭像 發(fā)表于 11-29 21:15 ?481次閱讀
    NVIDIA 為部分大型亞馬遜 Titan 基礎(chǔ)<b class='flag-5'>模型</b>提供<b class='flag-5'>訓(xùn)練</b>支持