0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

度曉曉1秒1篇高考作文,都是因為預(yù)訓(xùn)練大模型

Carol Li ? 來源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2022-06-10 00:02 ? 次閱讀

電子發(fā)燒友網(wǎng)報道(文/李彎彎)6月7日,百度推出的數(shù)字人度曉曉作答了全國新高考Ⅰ卷題為《本手、妙手、俗手》議論文,40秒就根據(jù)題目創(chuàng)作了40多篇文章,平均1秒生成1篇,隨機(jī)抽取其中一篇,其分?jǐn)?shù)趕超約75%高考考生。


而這得益于文心大模型最新發(fā)布的融合任務(wù)相關(guān)知識的千億大模型ERNIE 3.0 Zeus,該模型在學(xué)習(xí)海量數(shù)據(jù)和知識的基礎(chǔ)上,進(jìn)一步學(xué)習(xí)百余種不同形式的任務(wù)知識,增強(qiáng)了模型的效果,在各類NLP任務(wù)上表現(xiàn)出了更強(qiáng)的零樣本和小樣本學(xué)習(xí)能力。

基于文心大模型的智能創(chuàng)作

大模型是人工智能大基礎(chǔ)設(shè)施的重要組成,“文心大模型”是百度近幾年在花大力氣投入研發(fā)的技術(shù)基礎(chǔ)設(shè)施。自2019年開始,百度深耕預(yù)訓(xùn)練模型研發(fā),并在該年3月率先發(fā)布中國首個正式開放的預(yù)訓(xùn)練模型ERNIE1.0。

去年12月,百度聯(lián)合鵬城實驗室發(fā)布了鵬城-百度·文心大模型,這是全球首個知識增強(qiáng)千億大模型,也目前全球最大中文單體模型,參數(shù)規(guī)模達(dá)到2600億。

在今年5月20日的WAVE SUMMIT 2022深度學(xué)習(xí)開發(fā)者峰會上,文心大模型一次性發(fā)布10個新的大模型,涵蓋基礎(chǔ)大模型、任務(wù)大模型和行業(yè)大模型三級體系,其中就包括融合任務(wù)相關(guān)知識的千億NLP大模型ERNIE 3.0 Zeus。

千億規(guī)模參數(shù)的NLP基礎(chǔ)大模型ERNIE 3.0 Zeus在學(xué)習(xí)海量數(shù)據(jù)和知識的基礎(chǔ)上,進(jìn)一步學(xué)習(xí)百余種不同形式的任務(wù)知識,增強(qiáng)模型效果;融合層次化提示的預(yù)訓(xùn)練,更好地建模不同任務(wù)的共性與特性;將不同任務(wù)組織成統(tǒng)一的自然語言形式,統(tǒng)一建模增強(qiáng)模型的泛化能力,其相較于其他NLP大模型,在各類NLP任務(wù)上表現(xiàn)出了更強(qiáng)的零樣本和小樣本學(xué)習(xí)能力。

近年來,百度AI技術(shù)加速落地,新興的AIGC更是引人注目。AIGC是繼 UGC、PGC之后新型利用AI技術(shù)自動生成內(nèi)容的生產(chǎn)方式。百度研究院預(yù)測,2022年AIGC技術(shù)將借助大模型的跨模態(tài)綜合技術(shù)能力,可以激發(fā)創(chuàng)意,提升內(nèi)容多樣性,降低制作成本,實現(xiàn)大規(guī)模應(yīng)用。

本次度曉曉寫高考作文,就是基于飛槳文心大模型實現(xiàn)的AIGC創(chuàng)作,文心大模型具備“知識增強(qiáng)”的核心特點(diǎn),能從大規(guī)模知識和海量數(shù)據(jù)中進(jìn)行融合學(xué)習(xí),學(xué)習(xí)效率更高、效果更好,具有通用性好、泛化性強(qiáng)的特點(diǎn)。

除了智能寫作,在文心大模型的支持下,AI已經(jīng)具備很強(qiáng)的理解和生成能力,能夠?qū)崿F(xiàn)創(chuàng)意作品的自動生成,包括AI作畫、AI寫歌、AI剪輯等,未來,基于大模型的AIGC將會開放賦能到更多的內(nèi)容生產(chǎn)領(lǐng)域。除了在智能創(chuàng)作上外,文心大模型也已經(jīng)在工業(yè)、能源、教育、金融、通信、媒體等諸多行業(yè)得到應(yīng)用。

預(yù)訓(xùn)練大模型使AI通用性增強(qiáng)

大模型是AI領(lǐng)域最重要的前沿技術(shù)方向,自2018年OpenAI推出1.1億參數(shù)的GPT以后,谷歌、微軟、Facebook等相繼推出自己的預(yù)訓(xùn)練模型,2020年OpenAI再次推出1750億參數(shù)的GPT-3,更是引發(fā)科研機(jī)構(gòu)和企業(yè)在大模型研究的競賽,大模型的參數(shù)規(guī)模逐漸增加。

2021年大模型層出不窮,1月,谷歌發(fā)布首個萬億級模型Switch Transformer;3月,北京智源研究院發(fā)布悟道1.0,6月發(fā)布悟道2.0,參數(shù)規(guī)模超過百億;4月,華為云發(fā)布盤古大模型,這是業(yè)界首個千億參數(shù)中文語言預(yù)訓(xùn)練模型;9月,浪潮發(fā)布參數(shù)量達(dá)2457億的巨量模型“源1.0”;11月,英偉達(dá)與微軟聯(lián)合發(fā)布5300億參數(shù)的“MT-NLG”;同在11月,阿里達(dá)摩院宣布其多模態(tài)大模型M6最新參數(shù)從萬億躍遷至10萬億,超過谷歌、微軟此前發(fā)布的萬億級模型,成為全球最大的AI預(yù)訓(xùn)練模型。

預(yù)訓(xùn)練大模型其實是機(jī)器學(xué)習(xí)的一種方式,類比人的學(xué)習(xí)來看,人的學(xué)習(xí)可以分成通識教育和專業(yè)教育兩段,預(yù)訓(xùn)練大模型相當(dāng)于解決機(jī)器學(xué)習(xí)的通識教育。此前,機(jī)器學(xué)習(xí)主要通過標(biāo)注數(shù)據(jù),告訴算法哪個數(shù)據(jù)是正負(fù)樣本等進(jìn)行學(xué)習(xí)。由于人工智能落地場景很多,每個場景都要采數(shù)據(jù)、標(biāo)數(shù)據(jù),因此在標(biāo)注的數(shù)量和質(zhì)量上存在很大的瓶頸。

為解決以上問題,自然語言處理領(lǐng)域迎來了一個新的突破:自監(jiān)督學(xué)習(xí),指的是不用人為標(biāo)注數(shù)據(jù),機(jī)器可以用一個方法把知識和規(guī)律學(xué)出來。比如,在模型訓(xùn)練中,如果我們把“中國的首都是北京”這句話中的“北京”蓋住,讓模型去猜中國的首都是哪里,模型可能會猜一個城市,再把蓋的地方翻開,告訴模型是對了還是錯了,模型也就得到了反饋。

通過設(shè)計類似的學(xué)習(xí)方式,讓模型可以在海量的數(shù)據(jù)當(dāng)中進(jìn)行自監(jiān)督學(xué)習(xí)。這個機(jī)制的好處就是,它可以把天然存在的大量數(shù)據(jù)利用起來,打破一定要精標(biāo)數(shù)據(jù)才能學(xué)習(xí)的瓶頸,大模型的出現(xiàn),實際上是為了大幅度降低了行業(yè)應(yīng)用的門檻。

還有一個特別容易理解的解釋,預(yù)訓(xùn)練大模型是在一個原始任務(wù)上預(yù)先訓(xùn)練一個初始模型,然后在目標(biāo)任務(wù)上使用該模型,針對目標(biāo)任務(wù)的特性,對該初始模型進(jìn)行精調(diào),從而達(dá)到提高目標(biāo)任務(wù)的目的。在本質(zhì)上,這是一種遷移學(xué)習(xí)的方法,在自己的目標(biāo)任務(wù)上使用別人訓(xùn)練好的模型。

整體而言,預(yù)訓(xùn)練大模型的興起,使得人工智能的通用性進(jìn)一步增強(qiáng),大模型具有效果好、泛化性強(qiáng)、研發(fā)流程標(biāo)準(zhǔn)化程度高等特點(diǎn),正在成為人工智能技術(shù)及應(yīng)用的新基座。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 智能
    +關(guān)注

    關(guān)注

    8

    文章

    1699

    瀏覽量

    117333
  • 百度
    +關(guān)注

    關(guān)注

    9

    文章

    2242

    瀏覽量

    90128
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46397

    瀏覽量

    236603
收藏 人收藏

    評論

    相關(guān)推薦

    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第4期「預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報告題目預(yù)
    的頭像 發(fā)表于 10-18 08:09 ?88次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的基礎(chǔ)<b class='flag-5'>模型</b>下的持續(xù)學(xué)習(xí)

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)

    的章節(jié)包括統(tǒng)一自然語言任務(wù)、大語言模型訓(xùn)練過程和局限性分析,閱讀還算順利。 至此,基礎(chǔ)只能算是瀏覽完成,因為部分原理方法并沒有吃透,但盡管如此也是收獲頗豐,
    發(fā)表于 07-25 14:33

    預(yù)訓(xùn)練和遷移學(xué)習(xí)的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學(xué)習(xí)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的兩個重要概念,它們在提高模型性能、減少訓(xùn)練時間和降低對數(shù)據(jù)量的需求方面發(fā)揮著關(guān)鍵作用。本文將從定義、原理、應(yīng)用、區(qū)別和聯(lián)系等方面詳細(xì)探討
    的頭像 發(fā)表于 07-11 10:12 ?580次閱讀

    大語言模型預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語言模型預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過在海量無標(biāo)簽數(shù)據(jù)上進(jìn)行訓(xùn)練,使模型學(xué)習(xí)到語言的通用知識
    的頭像 發(fā)表于 07-11 10:11 ?326次閱讀

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    預(yù)訓(xùn)練模型(Pre-trained Model)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的一個重要概念,尤其是在自然語言處理(NLP)和計算機(jī)視覺(CV)等領(lǐng)域中得到了廣泛應(yīng)用。預(yù)
    的頭像 發(fā)表于 07-03 18:20 ?1852次閱讀

    官宣!李球博士擔(dān)任博格華納新任中國區(qū)總裁

    球博士(Shawn Li)將于2024年7月1日起擔(dān)任博格華納中國區(qū)總裁,接替即將退休的現(xiàn)任博格華納中國區(qū)總裁談躍生(Tom Tan)。
    的頭像 發(fā)表于 05-19 14:11 ?507次閱讀
    官宣!李<b class='flag-5'>曉</b>球博士擔(dān)任博格華納新任中國區(qū)總裁

    大語言模型:原理與工程時間+小白初識大語言模型

    的分布式表示,基于預(yù)訓(xùn)練的詞嵌入表示。 獨(dú)熱表示就是在一個大的向量空間中,其中一個位1,其余都為0,這樣就會變成單獨(dú)的。 詞的分布式表示:根據(jù)上下文進(jìn)行推斷語義。 基于預(yù)
    發(fā)表于 05-12 23:57

    【大語言模型:原理與工程實踐】大語言模型預(yù)訓(xùn)練

    大語言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對預(yù)訓(xùn)練數(shù)據(jù)的需求也相
    發(fā)表于 05-07 17:10

    特斯拉中國區(qū)副總裁朱彤回歸

    2023 年 1 月 3 日,有報道稱朱彤已晉升至全球管理層,負(fù)責(zé)美國生產(chǎn)業(yè)務(wù)以及北美和歐洲地區(qū)的銷售、交付和售后工作。特斯拉內(nèi)部公告顯示,朱彤仍擔(dān)任中國和亞洲其他地區(qū)的最高級別管理人員職位。
    的頭像 發(fā)表于 05-06 14:43 ?455次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎(chǔ)技術(shù)

    ,直到現(xiàn)在的大語言模型。 基于Transformer結(jié)構(gòu),預(yù)訓(xùn)練語言模型可以大致被劃分為以下三類。 (1) Encoder-Only
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實踐】核心技術(shù)綜述

    預(yù)訓(xùn)練和微調(diào),直到模型的部署和性能評估。以下是對這些技術(shù)的綜述: 模型架構(gòu): LLMs通常采用深層的神經(jīng)網(wǎng)絡(luò)架構(gòu),最常見的是Transformer網(wǎng)絡(luò),它包含多個自注意力層,能夠捕
    發(fā)表于 05-05 10:56

    谷歌模型訓(xùn)練軟件有哪些功能和作用

    谷歌模型訓(xùn)練軟件主要是指ELECTRA,這是一種新的預(yù)訓(xùn)練方法,源自谷歌AI。ELECTRA不僅擁有BERT的優(yōu)勢,而且在效率上更勝一籌。
    的頭像 發(fā)表于 02-29 17:37 ?699次閱讀

    如何優(yōu)化深度學(xué)習(xí)模型?

    因為大部分人使用的模型都是預(yù)訓(xùn)練模型,使用的權(quán)重都是
    發(fā)表于 01-29 14:25 ?2778次閱讀
    如何優(yōu)化深度學(xué)習(xí)<b class='flag-5'>模型</b>?

    新火種AI | 商湯湯鷗猝然離世!中國AI領(lǐng)域的損失比想象中更多

    鷗的去世,究竟是意外,還是陰謀?
    的頭像 發(fā)表于 12-19 10:45 ?851次閱讀
    新火種AI | 商湯湯<b class='flag-5'>曉</b>鷗猝然離世!中國AI領(lǐng)域的損失比想象中更多

    峰:ChatGPT,我們該怎么看

    ChatGPT名字的核心是“GPT”這三個英文縮寫字母,翻譯過來的意思是“生成式預(yù)訓(xùn)練轉(zhuǎn)化器”,即采用大量數(shù)據(jù)訓(xùn)練出一個巨大的神經(jīng)元網(wǎng)絡(luò)轉(zhuǎn)化器,生成與人類交互的內(nèi)容。因為其最核心的智能
    的頭像 發(fā)表于 11-12 09:29 ?632次閱讀