0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

大語言模型“書生·浦語”多項專業(yè)評測拔頭籌

商湯科技SenseTime ? 來源:未知 ? 2023-08-25 13:00 ? 次閱讀
最近,AI大模型測評火熱,尤其在大語言模型領域,“聰明”的上限不斷刷新。

商湯與上海AI實驗室等聯(lián)合打造的大語言模型“書生·浦語”(InternLM)也表現(xiàn)出色,分別在智源FlagEval大語言模型評測8月排行榜中文通用大模型綜合性評測基準SuperCLUE 7月評測榜兩項業(yè)內(nèi)權威大模型評測榜單中獲得優(yōu)異成績。 FlagEval是知名人工智能新型研發(fā)機構北京智源人工智能研究院推出的大模型評測體系及開放平臺。FlagEval大模型評測體系構建了“能力-任務-指標”三維評測框架,可視化呈現(xiàn)評測結果,總計600+評測維度,包括22個主觀、客觀評測數(shù)據(jù)集,84433道評測題目。除知名的公開數(shù)據(jù)集 HellaSwag、MMLU、C-Eval外,F(xiàn)lagEval還集成了包括智源自建的主觀評測數(shù)據(jù)集Chinese Linguistics & Cognition Challenge (CLCC),北京大學等單位共建的詞匯級別語義關系判斷、句子級別語義關系判斷、多義詞理解、修辭手法判斷評測數(shù)據(jù)集。
SuperCLUE是由創(chuàng)立于2019年的CLUE學術社區(qū)最新發(fā)布的中文通用大模型綜合性評測基準,包含SuperCLUE-Opt客觀題測試、SuperCLUE-Open主觀題測試、SuperCLUE-LYB瑯琊榜用戶投票的匿名對戰(zhàn)測試三大基準組成。為更好地反映國內(nèi)大模型與國際領先大模型間的差距和優(yōu)勢,SuperCLUE選取了多個國內(nèi)外有代表性的可用模型進行評測,同時由于其數(shù)據(jù)集保密性高,對大模型來說是‘閉卷考試’,減少了模型訓練數(shù)據(jù)混入評測數(shù)據(jù)的可能性。此外,SuperCLUE還通過自動化評測方式測試不同模型效果,可一鍵對大模型進行評測,相對更客觀。 “書生·浦語”:不僅善于考試,還是開源大模型中的佼佼者

“書生·浦語”,是商湯科技、上海AI實驗室聯(lián)合香港中文大學、復旦大學及上海交通大學打造的大語言模型,具有千億參數(shù),在包含1.8萬億token的高質(zhì)量語料上訓練而成。

今年6月,“書生·浦語”聯(lián)合團隊曾選取20余項評測進行檢驗,包括全球最具影響力的四個綜合性考試評測。結果顯示,“書生·浦語”在綜合性考試中表現(xiàn)突出,在多項中文考試中超越ChatGPT。(詳情可參考AI考生今日抵達,商湯與上海AI實驗室等發(fā)布“書生·浦語”大模型報道) 7月,“書生·浦語”正式開源70億參數(shù)的輕量級版本InternLM-7B。(https://github.com/InternLM/InternLM)

后續(xù)又推出升級版對話模型InternLM-Chat-7Bv1.1,成為首個具有代碼解釋能力的開源對話模型,能根據(jù)需要靈活調(diào)用Python解釋器等外部工具,解決復雜數(shù)學計算等任務的能力顯著提升。

此外,該模型還可通過搜索引擎獲取實時信息,提供具有時效性的回答。

在北京智源人工智能研究院FlagEval大語言模型評測體系8月最新排行榜中, “InternLM-chat-7B”和“InternLM-7B”分別在監(jiān)督微調(diào)模型(SFT Model)榜單、基座模型(Base Model)榜單中取得第一和第二名

“InternLM-chat-7B”還刷新中英客觀評測記錄。 「什么是“基座模型”、“有監(jiān)督微調(diào)模型”?」 基座模型(Base Model)是經(jīng)過海量數(shù)據(jù)預訓練(Pre-train)得到的,它具備一定的通用能力,比如:GPT-3。 有監(jiān)督微調(diào)模型(SFT Model)則是經(jīng)過指令微調(diào)數(shù)據(jù)(包含了各種與人類行為及情感相關的指令和任務的數(shù)據(jù)集)訓練后得到的,具備了與人類流暢對話的能力,如:ChatGPT。 普遍的觀點認為,基座模型在很大程度上決定了微調(diào)模型的能力。 因此,F(xiàn)lagEval大語言模型評測體系針對基座模型的評測主要從“提示學習評測”和“適配評測”兩方面進行;針對有監(jiān)督微調(diào)模型的評測則從“復用針對基座模型的客觀評測” 進一步增加“引入主觀評測”。 此次兩個榜單中,“InternLM-chat-7B”和“InternLM-7B”均表現(xiàn)出優(yōu)異的綜合性能,超越備受關注的Llama2-chat-13B/7B和Llama2-13B/7B。 特別在SFT Model測試中,InternLM-chat-7B中文能力大幅領先同時,英文能力也與對手保持在相近水平,展現(xiàn)出更強的實用性能。 wKgZomToSjaAS-sLAAFBK8bU_fs988.jpgwKgZomToSjaAaVfdAAEPh3f12d8810.jpg ?

SuperCLUE評測從基礎能力、專業(yè)能力、中文特性能力三個不同維度對國內(nèi)外通用大模型產(chǎn)品進行評價,考察大模型在70余個任務上的綜合表現(xiàn)。

“書生·浦語”InternLM-chat-7B在7月公布SuperCLUE評測榜單中表現(xiàn)出色,SuperCLUE-Opt開源大模型榜單拔得頭籌。 wKgZomToSjaACTy0AAQPBYmSqG8574.png ?作為SuperCLUE綜合性三大基準之一,SuperCLUE-Opt評測基準每期有3700+道客觀題(選擇題),由基礎能力(10個子任務)、中文特性能力(10個子任務)、學術專業(yè)能力(50+子任務)組成,采用封閉域測試方式。 相比第二名ChatGLM2-6B,InternLM-chat-7B主要在學術專業(yè)方面取得較大領先,同時全面領先于第三名Baichuan-13B-Chat。

wKgZomToSjaAH4hcAAATzh3tzFA763.gif

相關閱讀,戳這里

讓大模型“百花齊放”,商湯大裝置SenseCore提供一片沃土

《商湯發(fā)布多模態(tài)多任務通用大模型“書生2.5”》

《商湯聯(lián)合發(fā)布通才AI智能體通關<我的世界>》

wKgZomToSjaAQE8DAAC4LKEIjVg960.jpg


原文標題:大語言模型“書生·浦語”多項專業(yè)評測拔頭籌

文章出處:【微信公眾號:商湯科技SenseTime】歡迎添加關注!文章轉載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 商湯科技
    +關注

    關注

    8

    文章

    479

    瀏覽量

    36028

原文標題:大語言模型“書生·浦語”多項專業(yè)評測拔頭籌

文章出處:【微信號:SenseTime2017,微信公眾號:商湯科技SenseTime】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    云知聲山海大模型多項能力全球領跑

    國內(nèi)人工智能權威機構清華大學基礎模型研究中心發(fā)布SuperBench九月綜合榜單。本次評測選取海內(nèi)外24個具有代表性的大模型,結果顯示,山海大模型對齊、智能體、安全等
    的頭像 發(fā)表于 10-12 14:30 ?287次閱讀
    云知聲山海大<b class='flag-5'>模型</b><b class='flag-5'>多項</b>能力全球領跑

    【《大語言模型應用指南》閱讀體驗】+ 俯瞰全書

    松。 入門篇主要偏應用,比如大語言模型的三種交互方式,分析了提示工程、工作記憶和長短期記憶,此篇最后講了ChatGPT的接口和擴展功能應用,適合大語言模型應用技術人員閱讀。 進階篇就非
    發(fā)表于 07-21 13:35

    模型助力國際術語專業(yè)化,前后聯(lián)動實現(xiàn)所見即所得

    、西班牙、法語、德語、越南。其中每個語言包的詞條都有上萬條,且隨著新需求的開發(fā)迭代也在不斷的新增,語言包的不斷擴展和詞條的不斷增加,詞條翻譯的簡潔性、
    的頭像 發(fā)表于 06-21 17:37 ?383次閱讀
    大<b class='flag-5'>模型</b>助力國際術語<b class='flag-5'>專業(yè)</b>化,前后聯(lián)動實現(xiàn)所見即所得

    名單公布!【書籍評測活動NO.34】大語言模型應用指南:以ChatGPT為起點,從入門到精通的AI實踐教程

    聯(lián)系,視為放棄本次試用評測資格! 2018 年,OpenAI 發(fā)布了首個大語言模型——GPT,這標志著大語言模型革命的開始。這場革命在 20
    發(fā)表于 06-03 11:39

    語言模型:原理與工程時間+小白初識大語言模型

    語言模型進行預訓練,此處預訓練為自然語言處理領域的里程碑 分詞技術(Tokenization) Word粒度:我/賊/喜歡/看/大語言模型
    發(fā)表于 05-12 23:57

    【大語言模型:原理與工程實踐】大語言模型的應用

    ,它通過抽象思考和邏輯推理,協(xié)助我們應對復雜的決策。 相應地,我們設計了兩類任務來檢驗大語言模型的能力。一類是感性的、無需理性能力的任務,類似于人類的系統(tǒng)1,如情感分析和抽取式問答等。大語言
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型評測

    語言模型評測是確保模型性能和應用適應性的關鍵環(huán)節(jié)。從基座模型到微調(diào)模型,再到行業(yè)
    發(fā)表于 05-07 17:12

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐》2.0

    讀者更好地把握大語言模型的應用場景和潛在價值。盡管涉及復雜的技術內(nèi)容,作者盡力以通俗易懂的語言解釋概念,使得非專業(yè)背景的讀者也能夠跟上節(jié)奏。圖表和示例的運用進一步增強了書籍的可讀性。本
    發(fā)表于 05-07 10:30

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    全面剖析大語言模型的核心技術與基礎知識。首先,概述自然語言的基本表示,這是理解大語言模型技術的前提。接著,詳細介紹自然
    發(fā)表于 05-05 12:17

    名單公布!【書籍評測活動NO.31】大語言模型:原理與工程實踐

    放棄本次試用評測資格! 緣起:為什么要寫這本書 OpenAI的ChatGPT自推出以來,迅速成為人工智能領域的焦點。ChatGPT在語言理解、生成、規(guī)劃及記憶等多個維度展示了強大的能力。這不僅體現(xiàn)在
    發(fā)表于 03-18 15:49

    名單公布!【書籍評測活動NO.30】大規(guī)模語言模型:從理論到實踐

    評測資格! 2022年11月,ChatGPT的問世展示了大模型的強大潛能,對人工智能領域有重大意義,并對自然語言處理研究產(chǎn)生了深遠影響,引發(fā)了大模型研究的熱潮。 距ChatGPT問世不
    發(fā)表于 03-11 15:16

    模型開源開放評測體系司南正式發(fā)布

    近日,大模型開源開放評測體系司南(OpenCompass2.0)正式發(fā)布,旨在為大語言模型、多模態(tài)模型等各類
    的頭像 發(fā)表于 02-05 11:28 ?950次閱讀

    上海AI實驗室發(fā)布新一代書生·視覺大模型

    近日,上海人工智能實驗室(上海AI實驗室)聯(lián)手多所知名高校及科技公司共同研發(fā)出新一代書生·視覺大模型(InternVL)。
    的頭像 發(fā)表于 02-04 11:25 ?996次閱讀

    書生? 2.0(InternLM2)大語言模型開源

    這個模型在 2.6 萬億 token 的高質(zhì)量語料基礎上進行訓練,包含 7B 和 20B 兩種參數(shù)規(guī)格以及基座、對話等版本,以滿足不同復雜應用場景的需求。
    發(fā)表于 01-19 09:39 ?246次閱讀
    <b class='flag-5'>書生</b>?<b class='flag-5'>浦</b><b class='flag-5'>語</b> 2.0(InternLM2)大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>開源

    商湯科技發(fā)布新一代大語言模型書生·2.0

    1月17日,商湯科技與上海AI實驗室聯(lián)合香港中文大學和復旦大學正式發(fā)布新一代大語言模型書?·2.0(InternLM2)。
    的頭像 發(fā)表于 01-17 15:03 ?723次閱讀
    商湯科技發(fā)布新一代大<b class='flag-5'>語言</b><b class='flag-5'>模型</b><b class='flag-5'>書生</b>·<b class='flag-5'>浦</b><b class='flag-5'>語</b>2.0