0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型的未來(lái)在哪?究竟什么是好的大模型?

腦極體 ? 來(lái)源:腦極體 ? 作者:腦極體 ? 2021-10-27 08:46 ? 次閱讀

自2018年谷歌發(fā)布BERT以來(lái),預(yù)訓(xùn)練大模型經(jīng)過(guò)三年的發(fā)展,以強(qiáng)大的算法效果,席卷了NLP為代表的各大AI榜單與測(cè)試數(shù)據(jù)集。2020年OpenAI發(fā)布的NLP大模型GPT-3,實(shí)現(xiàn)了千億級(jí)數(shù)據(jù)參數(shù)。GPT-3除了具備傳統(tǒng)的NLP能力之外,還可以算術(shù)、編程、寫小說(shuō)、寫論文摘要,一時(shí)之間成為科技圈中的爆點(diǎn)。到2021年,我們可以看到各大學(xué)術(shù)機(jī)構(gòu)、科技企業(yè)都在打造自己的大模型,并且對(duì)其能力邊界、技術(shù)路徑進(jìn)行了極大拓展。

身在科技圈中會(huì)有明顯的感受,今年大模型的會(huì)議與討論越來(lái)越多,預(yù)訓(xùn)練大模型本身的優(yōu)勢(shì)我們?cè)诤芏嘈侣勚卸几惺艿搅?。打造大模型并不是一件輕松容易的事情,需要耗費(fèi)大量的數(shù)據(jù)、算力資源等,大模型的意義是為了讓算法模型集中化,但是市場(chǎng)中有條件的企業(yè)和機(jī)構(gòu)都開(kāi)始耗費(fèi)大量資源自研大模型。大模型算法模型的集中化優(yōu)勢(shì),經(jīng)過(guò)這些機(jī)構(gòu)對(duì)集中資源的分化,又有種煙囪式的割裂。

其實(shí)現(xiàn)實(shí)可能只需要一個(gè)發(fā)展到極致化的大模型就足夠大家使用了,沒(méi)有必要人手一個(gè)。而且預(yù)訓(xùn)練大模型的發(fā)展在這樣的模式下也會(huì)受到一些影響,而在這個(gè)態(tài)勢(shì)下也有一些趨勢(shì)與變化值得討論與關(guān)注。

大模型發(fā)展模式的卡點(diǎn)

BERT、GPT 等大規(guī)模預(yù)訓(xùn)練模型(PTM)近年來(lái)取得了巨大成功,成為AI領(lǐng)域的里程碑。因?yàn)轭A(yù)訓(xùn)練大模型的顯著優(yōu)勢(shì),現(xiàn)在AI社區(qū)的共識(shí)是采用它作為下游任務(wù)的開(kāi)始,而不是從頭開(kāi)始訓(xùn)練數(shù)據(jù)、建立模型。

隨著產(chǎn)學(xué)研各界的深入研究,大模型在AI各界的地位得到不斷加強(qiáng)。一些機(jī)構(gòu)和產(chǎn)業(yè)界對(duì)大模型的參與到角逐,使得其呈現(xiàn)出一種宣傳炫技般的畫面感受。這樣的發(fā)展模式很可能會(huì)給行業(yè)帶來(lái)一些不好的影響:

1.大模型成為一些機(jī)構(gòu)和企業(yè)秀肌肉的軍備競(jìng)賽,大家開(kāi)始比拼各自參數(shù)集數(shù)量級(jí)。你百億級(jí),我就千億級(jí)。數(shù)據(jù)集本身就有限,標(biāo)榜自己的數(shù)據(jù)集越大,也意味著水分比較多,而在真實(shí)落地使用的情況方面,也并不不一定理想。算力資源和訓(xùn)練時(shí)間消耗過(guò)大,并且也只限于部分行業(yè)的部分問(wèn)題,普適性差。

2.國(guó)內(nèi)預(yù)訓(xùn)練模型的玩家們可用的中文數(shù)據(jù)集有限,就是我們知道的幾種主流常用數(shù)據(jù)來(lái)源。在有限的數(shù)據(jù)集里,大家使用的數(shù)據(jù)未免重復(fù),而因此研究出來(lái)的大模型能力就比較接近。走相同的路徑做類似的事情,有點(diǎn)浪費(fèi)資源與算力。

3.大模型是否優(yōu)秀,不僅依賴數(shù)據(jù)的精度與網(wǎng)絡(luò)結(jié)構(gòu),也是對(duì)其與行業(yè)結(jié)合軟硬件協(xié)同能力的比拼。單純只強(qiáng)調(diào)低頭研發(fā)高參數(shù)集、強(qiáng)算力模型等的方向,輕視一些與行業(yè)的協(xié)同二次調(diào)試等問(wèn)題,就會(huì)陷入閉門造車的局面,限制了落地的路,走不遠(yuǎn)。

4.一些預(yù)訓(xùn)練大模型經(jīng)過(guò)極致化(數(shù)據(jù)、模型、算力)的發(fā)展后,也有可能面臨小眾、泛用性差的情形,比如一些高校研發(fā)的預(yù)訓(xùn)練大模型只能在小眾的學(xué)術(shù)圈子里使用,無(wú)法工程化使用,最終淪為一次性的模型,浪費(fèi)大量的資源。

雖然我們看到各種大模型在集中式爆發(fā)發(fā)展,但其實(shí)目前大模型行業(yè)還處于初始階段,面臨一些問(wèn)題與卡點(diǎn)無(wú)可避免。行業(yè)內(nèi)人士應(yīng)該會(huì)更加敏感地體察到這些現(xiàn)象,誰(shuí)也不會(huì)想要讓這些荊棘以常態(tài)的模式橫亙?cè)诎l(fā)展前路上。大家花費(fèi)精力激蕩腦力,想要發(fā)展的共識(shí)是打造出行業(yè)內(nèi)唯一的模型。那么,對(duì)于行業(yè)來(lái)說(shuō),究竟什么樣的大模型才是最好的呢?

究竟什么是好的大模型?

在這場(chǎng)battle里,大模型向著規(guī)模極致化的方向發(fā)展。那么如何衡量大模型的能力,是一個(gè)繞不開(kāi)的話題。衡量大模型能力的關(guān)鍵要素是,參數(shù)的規(guī)模和與細(xì)分行業(yè)結(jié)合對(duì)接的軟硬件協(xié)同能力。我們?cè)诟鞣N新聞中經(jīng)??梢钥吹?,機(jī)構(gòu)或者是企業(yè)用數(shù)據(jù)集或者是參數(shù)規(guī)模,以及跑分來(lái)彰顯自己的模型水平。

參數(shù)的規(guī)模決定了預(yù)訓(xùn)練模型有多大。參數(shù)越大一般來(lái)說(shuō)意味著大模型具備更多的能力,泛化性、通用性也更加強(qiáng)。成功的大模型背后,還需要大規(guī)模分布式訓(xùn)練、并行計(jì)算、軟硬件協(xié)同優(yōu)化等能力。

腦極體曾在GPT-3最火的時(shí)候,參與過(guò)一次試驗(yàn):用GPT-3寫個(gè)文章出來(lái)。我們給第三方提供了一些寫作的思路,想要看一下機(jī)器寫出來(lái)的效果怎么樣(其實(shí)是想看看自己離失業(yè)還有多久)。結(jié)果得到的反饋是GPT-3在理解能力方面很牛很強(qiáng),但是讓它去生產(chǎn)一篇稿件,對(duì)于它來(lái)說(shuō)還是比較復(fù)雜而且困難的一件事情。

另外,排隊(duì)等待使用的企業(yè)過(guò)多,間次使用等待的時(shí)間過(guò)長(zhǎng),,并且稿件本身也需要好幾天才能完成??此埔粋€(gè)簡(jiǎn)單的寫稿需求,對(duì)無(wú)所不能的GPT-3來(lái)說(shuō)應(yīng)該是小case,結(jié)果無(wú)疾而終。存在類似小需求的企業(yè)應(yīng)該還是有很多,而這些需求都需要排隊(duì)等待調(diào)用大量的算力,并且磨幾天才能產(chǎn)出,而花時(shí)間花錢結(jié)果還存疑。當(dāng)時(shí)行業(yè)里最好的大模型落地都如此艱難,大模型的落地還是有點(diǎn)不理想。

好的大模型不僅僅需要模型、算力等本身性能方面強(qiáng)勁,關(guān)鍵也需要看與某垂直行業(yè)結(jié)合時(shí)產(chǎn)品化落地的能力是否實(shí)用。落地的大模型需要解決一些行業(yè)具體的問(wèn)題,與行業(yè)結(jié)合時(shí)二次開(kāi)發(fā)、對(duì)接的成本盡可能地小,否則它強(qiáng)勢(shì)的性能也只是空中樓閣,中看不中用。大模型需要工程落地的能力,從而打開(kāi)更多的邊界,讓更多領(lǐng)域和企業(yè)來(lái)使用。

大模型的未來(lái)趨勢(shì)

從產(chǎn)業(yè)價(jià)值的角度來(lái)看,預(yù)訓(xùn)練大模型帶來(lái)了一系列可能性,讓產(chǎn)學(xué)研各界看到了由弱人工智能走向強(qiáng)人工智能,走向工業(yè)化、集成化智能化的路徑。在這樣的驅(qū)動(dòng)背景下,大模型也會(huì)有一些可預(yù)見(jiàn)的趨勢(shì)與發(fā)展。

1.我們知道事物的發(fā)展規(guī)律是優(yōu)勝劣汏,在競(jìng)爭(zhēng)的角逐中,一些標(biāo)榜獨(dú)特性的小眾模型的泛化能力差,越獨(dú)特可能也就意味著越小眾,使用的范圍十分有限,可能會(huì)逐漸走向消亡。

2.崛起的大模型不僅僅是泛化性、落地能力強(qiáng),創(chuàng)新性強(qiáng)、訓(xùn)練數(shù)據(jù)規(guī)模大,也需要具備不斷生長(zhǎng)革新的能力,也就是自我進(jìn)化、智能化的能力。大模型的未來(lái)需要?jiǎng)?chuàng)新,也需要自我生長(zhǎng),向可持續(xù)、可進(jìn)化的方向發(fā)展,架構(gòu)上的革新會(huì)讓模型更加高效。

3.大模型能力的端側(cè)化,“芯片化”。將模型的一些運(yùn)算存儲(chǔ)等能力像芯片一樣固化在一些端側(cè)硬件設(shè)備中,在使用的過(guò)程中不用在重裝的模型中耗時(shí)調(diào)用算力與數(shù)據(jù),可以實(shí)現(xiàn)隨時(shí)調(diào)用隨時(shí)使用。現(xiàn)下的模型多是重裝大模型,使用的話需要調(diào)用龐大的算力和運(yùn)行時(shí)間,未來(lái)的大模型會(huì)逐漸改變這種模式。

4.大模型的標(biāo)準(zhǔn)化與模塊化發(fā)展。大模型的評(píng)估未來(lái)會(huì)有標(biāo)準(zhǔn)化成熟的體系來(lái)衡量,這個(gè)體系也會(huì)是行業(yè)內(nèi)公認(rèn)的標(biāo)準(zhǔn),用這個(gè)標(biāo)準(zhǔn)來(lái)衡量大模型的優(yōu)劣而不是現(xiàn)下自賣自夸式的標(biāo)榜。

目前我們?cè)诟鞔蟀駟紊峡吹降姆謹(jǐn)?shù)來(lái)自于大型的數(shù)據(jù)集和算力模型,讓開(kāi)發(fā)更加容易,調(diào)試與訓(xùn)練的周期越來(lái)越短。但我們也知道大量的數(shù)據(jù)喂養(yǎng)出來(lái)的模型回報(bào)并不是百分百地正確。喂養(yǎng)的數(shù)據(jù)知識(shí)的極大擴(kuò)展也無(wú)法保證結(jié)果的確定性,這也是大模型最大的弱點(diǎn),而這也意味著對(duì)于大模型的探索需要持續(xù)的迭代發(fā)展。

預(yù)訓(xùn)練大模型是面向通用智能最高階的探索,也是AI持續(xù)變革的核心發(fā)展方向與動(dòng)力,隨著AI不斷深入產(chǎn)業(yè)與各學(xué)科領(lǐng)域的過(guò)程中,大模型在軍備battle和百家爭(zhēng)鳴,算力、數(shù)據(jù)、規(guī)模都會(huì)朝著極致化的方向發(fā)展。未來(lái)新的預(yù)訓(xùn)練大模型將會(huì)與那些計(jì)算量巨大的科學(xué)領(lǐng)域,比如制藥、腦科學(xué)、醫(yī)療、生物計(jì)算等領(lǐng)域相互結(jié)合,帶來(lái)巨大的價(jià)值。

我們的那些懸而未解的難題,在未來(lái)都會(huì)有答案,無(wú)論最終這個(gè)結(jié)論正確與否,都能夠?yàn)榍把氐陌l(fā)展、探索帶來(lái)很多靈感與角度,世界的多面體將會(huì)被打開(kāi)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29435

    瀏覽量

    267733
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1199

    瀏覽量

    24594
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    483

    瀏覽量

    21976
  • 訓(xùn)練模型
    +關(guān)注

    關(guān)注

    1

    文章

    35

    瀏覽量

    3794
  • 算力
    +關(guān)注

    關(guān)注

    1

    文章

    879

    瀏覽量

    14660
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    未來(lái)AI大模型的發(fā)展趨勢(shì)

    未來(lái)AI大模型的發(fā)展趨勢(shì)將呈現(xiàn)多元化和深入化的特點(diǎn),以下是對(duì)其發(fā)展趨勢(shì)的分析: 一、技術(shù)驅(qū)動(dòng)與創(chuàng)新 算法與架構(gòu)優(yōu)化 : 隨著Transformer架構(gòu)的廣泛應(yīng)用,AI大模型在特征提取和并行計(jì)算效率
    的頭像 發(fā)表于 10-23 15:06 ?235次閱讀

    ai大模型和傳統(tǒng)ai的區(qū)別在哪?

    AI大模型和傳統(tǒng)AI的區(qū)別主要體現(xiàn)在以下幾個(gè)方面: 數(shù)據(jù)量和訓(xùn)練規(guī)模 AI大模型通常需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練,以獲得更好的性能。相比之下,傳統(tǒng)AI模型往往使用較小的數(shù)據(jù)集進(jìn)行訓(xùn)練。例如,Google
    的頭像 發(fā)表于 07-16 10:06 ?995次閱讀

    MATLAB預(yù)測(cè)模型哪個(gè)

    在MATLAB中,預(yù)測(cè)模型的選擇取決于數(shù)據(jù)類型、問(wèn)題復(fù)雜度和預(yù)測(cè)目標(biāo)。以下是一些常見(jiàn)的預(yù)測(cè)模型及其適用場(chǎng)景的介紹: 線性回歸(Linear Regression): 線性回歸是最基本的預(yù)測(cè)模型之一
    的頭像 發(fā)表于 07-11 14:31 ?331次閱讀

    基于MATLAB 的質(zhì)量守恒空化模型(JFO 模型

    可有大佬會(huì)基于MATLAB 的質(zhì)量守恒空化模型(JFO 模型
    發(fā)表于 07-05 23:32

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的應(yīng)用

    的錯(cuò)誤。這是因?yàn)樽匀徽Z(yǔ)言書寫指令缺乏嚴(yán)格的語(yǔ)法約束,與傳統(tǒng)的編程語(yǔ)言相比,更容易出現(xiàn)錯(cuò)誤。 展望未來(lái),大語(yǔ)言模型和提示工程有著廣闊的應(yīng)用前景。首先,隨著技術(shù)的不斷進(jìn)步,大語(yǔ)言模型將進(jìn)一步滲透到醫(yī)療
    發(fā)表于 05-07 17:21

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的評(píng)測(cè)

    大語(yǔ)言模型的評(píng)測(cè)是確保模型性能和應(yīng)用適應(yīng)性的關(guān)鍵環(huán)節(jié)。從基座模型到微調(diào)模型,再到行業(yè)模型和整體能力,每個(gè)階段都需要精確的評(píng)測(cè)來(lái)指導(dǎo)
    發(fā)表于 05-07 17:12

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的基礎(chǔ)技術(shù)

    全面剖析大語(yǔ)言模型的核心技術(shù)與基礎(chǔ)知識(shí)。首先,概述自然語(yǔ)言的基本表示,這是理解大語(yǔ)言模型技術(shù)的前提。接著,詳細(xì)介紹自然語(yǔ)言處理預(yù)訓(xùn)練的經(jīng)典結(jié)構(gòu)Transformer,以及其工作原理,為構(gòu)建大語(yǔ)言
    發(fā)表于 05-05 12:17

    【大語(yǔ)言模型:原理與工程實(shí)踐】揭開(kāi)大語(yǔ)言模型的面紗

    ,生成能力則使其能生成新的、連貫的文本,而涌現(xiàn)性則讓模型能生成未曾出現(xiàn)但邏輯上合理的內(nèi)容。從早期的統(tǒng)計(jì)模型到如今的大語(yǔ)言模型,AI領(lǐng)域不斷突破,大語(yǔ)言模型已成為多種應(yīng)用場(chǎng)景的強(qiáng)力助推器
    發(fā)表于 05-04 23:55

    【大語(yǔ)言模型:原理與工程實(shí)踐】探索《大語(yǔ)言模型原理與工程實(shí)踐》

    未來(lái)發(fā)展方向進(jìn)行了展望,包括跨領(lǐng)域、跨模態(tài)和自動(dòng)提示生成能力方向,為讀者提供了對(duì)未來(lái)技術(shù)發(fā)展的深刻見(jiàn)解?!洞笳Z(yǔ)言模型原理與工程實(shí)踐》是一本內(nèi)容豐富、深入淺出的技術(shù)書籍。它不僅為讀者提供了大語(yǔ)言
    發(fā)表于 04-30 15:35

    谷歌模型合成工具在哪找到

    谷歌模型合成工具可以在谷歌的官方網(wǎng)站或相關(guān)的開(kāi)發(fā)者平臺(tái)上找到。具體地,您可以嘗試訪問(wèn)谷歌的AI平臺(tái)或開(kāi)發(fā)者社區(qū),以獲取有關(guān)模型合成工具的最新信息和資源。
    的頭像 發(fā)表于 03-01 18:13 ?1490次閱讀

    大信號(hào)模型和小信號(hào)模型的區(qū)別

    大信號(hào)模型和小信號(hào)模型是電子工程和通信領(lǐng)域中常用的兩種模型,它們?cè)诿枋龊头治鲭娮与娐坊蛳到y(tǒng)時(shí)具有不同的特點(diǎn)和應(yīng)用范圍。以下是關(guān)于大信號(hào)模型和小信號(hào)
    的頭像 發(fā)表于 12-19 11:35 ?8734次閱讀

    模型數(shù)據(jù)集:突破邊界,探索未來(lái)

    隨著人工智能技術(shù)的快速發(fā)展,大型預(yù)訓(xùn)練模型如GPT-4、BERT等在自然語(yǔ)言處理領(lǐng)域取得了顯著的成功。這些大模型背后的關(guān)鍵之一是龐大的數(shù)據(jù)集,為模型提供了豐富的知識(shí)和信息。本文將探討大模型
    的頭像 發(fā)表于 12-06 16:10 ?565次閱讀

    模型數(shù)據(jù)集:構(gòu)建、挑戰(zhàn)與未來(lái)趨勢(shì)

    隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,大型預(yù)訓(xùn)練模型如GPT-4、BERT等在各個(gè)領(lǐng)域取得了顯著的成功。這些大模型背后的關(guān)鍵之一是龐大的數(shù)據(jù)集,為模型提供了豐富的知識(shí)和信息。本文將探討大模型數(shù)據(jù)
    的頭像 發(fā)表于 12-06 15:28 ?1397次閱讀

    AD539沒(méi)有spice模型,該如何仿真?

    的正弦波,VX增益用的是1V的直流電,但輸出端Vw處始終沒(méi)有波形,檢查不出原因,誰(shuí)能指導(dǎo)一下,或者告訴我可以在哪個(gè)軟件上仿真,或者給我一個(gè)AD539的spice模型文件,謝謝了。根據(jù)下面這個(gè)電路圖連接的電路。
    發(fā)表于 11-21 08:03

    請(qǐng)問(wèn)AD8230沒(méi)有spice模型嗎?

    如題,在AD8230網(wǎng)頁(yè)上沒(méi)有看到spice模型。 請(qǐng)問(wèn)在哪里可以找到?
    發(fā)表于 11-17 06:03