0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Prompt范式你們了解多少

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:李rumor ? 作者:rumor ? 2021-09-10 10:22 ? 次閱讀

卷友們好,我是rumor。

之前我學(xué)習(xí)Prompt范式的源起PET后就鴿了很久,相信卷友們已經(jīng)把Prompt的論文都追完了,把我遠(yuǎn)遠(yuǎn)地落在了后面。周末我不甘被卷,奮起直追,連刷三篇paper,希望能趕上大家學(xué)習(xí)的步伐。

Prefix-tuning- Optimizing continuous prompts for generation

P-tuning-GPT Understands, Too

Prompt-tuning-The Power of Scale for Parameter-Efficient Prompt Tuning

自動(dòng)化Prompt

Prompt范式的第一個(gè)階段,就是在輸入上加Prompt文本,再對(duì)輸出進(jìn)行映射。但這種方式怎么想都不是很優(yōu)雅,無(wú)法避免人工的介入。即使有方法可以批量挖掘,但也有些復(fù)雜(有這個(gè)功夫能標(biāo)不少高質(zhì)量語(yǔ)料),而且模型畢竟是黑盒,對(duì)離散文本輸入的魯棒性很差:

323a6c1c-112f-11ec-8fb8-12bb97331649.jpg

怎么辦呢?離散的不行,那就連續(xù)的唄

用固定的token代替prompt,拼接上文本輸入,當(dāng)成特殊的embedding輸入,這樣在訓(xùn)練時(shí)也可以對(duì)prompt進(jìn)行優(yōu)化,就減小了prompt挖掘、選擇的成本。

如何加入Prompt

前面的想法非常單純,但實(shí)際操作起來(lái)還是需要些技巧的。

Prefix-tuning

Prefix-tuning是做生成任務(wù),它根據(jù)不同的模型結(jié)構(gòu)定義了不同的Prompt拼接方式,在GPT類的自回歸模型上采用[PREFIX, x, y],在T5類的encoder-decoder模型上采用[PREFIX, x, PREFIX‘, y]:

3246ea32-112f-11ec-8fb8-12bb97331649.jpg

值得注意的還有三個(gè)改動(dòng):

把預(yù)訓(xùn)練大模型freeze住,因?yàn)榇竽P?a target="_blank">參數(shù)量大,精調(diào)起來(lái)效率低,畢竟prompt的出現(xiàn)就是要解決大模型少樣本的適配

作者發(fā)現(xiàn)直接優(yōu)化Prompt參數(shù)不太穩(wěn)定,加了個(gè)更大的MLP,訓(xùn)練完只保存MLP變換后的參數(shù)就行了

實(shí)驗(yàn)證實(shí)只加到embedding上的效果不太好,因此作者在每層都加了prompt的參數(shù),改動(dòng)較大

P-tuning

P-tuning是稍晚些的工作,主要針對(duì)NLU任務(wù)。對(duì)于BERT類雙向語(yǔ)言模型采用模版(P1, x, P2, [MASK], P3),對(duì)于單向語(yǔ)言模型采用(P1, x, P2, [MASK]):

3254d11a-112f-11ec-8fb8-12bb97331649.jpg

同時(shí)加了兩個(gè)改動(dòng):

考慮到預(yù)訓(xùn)練模型本身的embedding就比較離散了(隨機(jī)初始化+梯度傳回來(lái)小,最后只是小范圍優(yōu)化),同時(shí)prompt本身也是互相關(guān)聯(lián)的,所以作者先用LSTM對(duì)prompt進(jìn)行編碼

在輸入上加入了anchor,比如對(duì)于RTE任務(wù),加上一個(gè)問(wèn)號(hào)變成[PRE][prompt tokens][HYP]?[prompt tokens][MASK]后效果會(huì)更好

P-tuning的效果很好,之前的Prompt模型都是主打小樣本效果,而P-tuning終于在整個(gè)數(shù)據(jù)集上超越了精調(diào)的效果:

32612dde-112f-11ec-8fb8-12bb97331649.jpg

雖然P-tuning效果好,但實(shí)驗(yàn)對(duì)比也有些問(wèn)題,它沒(méi)有freeze大模型,而是一起精調(diào)的,相當(dāng)于引入了額外的輸入特征,而平時(shí)我們?cè)谳斎爰觽€(gè)詞法句法信息也會(huì)有提升,所以不能完全肯定這個(gè)效果是prompt帶來(lái)的。同時(shí)隨著模型尺寸增大,精調(diào)也會(huì)更難。

Prompt-tuning

Prompt-tuning就更加有信服力一些,純憑Prompt撬動(dòng)了大模型。

Prompt-tuning給每個(gè)任務(wù)定義了自己的Prompt,拼接到數(shù)據(jù)上作為輸入,同時(shí)freeze預(yù)訓(xùn)練模型進(jìn)行訓(xùn)練,在沒(méi)有加額外層的情況下,可以看到隨著模型體積增大效果越來(lái)越好,最終追上了精調(diào)的效果:

326f312c-112f-11ec-8fb8-12bb97331649.jpg

同時(shí),Prompt-tuning還提出了Prompt-ensembling,也就是在一個(gè)batch里同時(shí)訓(xùn)練同一個(gè)任務(wù)的不同prompt,這樣相當(dāng)于訓(xùn)練了不同「模型」,比模型集成的成本小多了。

其他Trick

除了怎么加Prompt之外,Prompt向量的初始化和長(zhǎng)度也有所講究。

Prompt初始化

Prefix-tuning采用了任務(wù)相關(guān)的文字進(jìn)行初始化,而Prompt-tuning發(fā)現(xiàn)在NLU任務(wù)上用label文本初始化效果更好。不過(guò)隨著模型尺寸的提升,這種gap也會(huì)最終消失。

3285c892-112f-11ec-8fb8-12bb97331649.jpg

Prompt長(zhǎng)度

從Prompt-tuning的實(shí)驗(yàn)可以看到,長(zhǎng)度在10-20時(shí)的表現(xiàn)已經(jīng)不錯(cuò)了,同時(shí)這個(gè)gap也會(huì)隨著模型尺寸的提升而減小。

329143c0-112f-11ec-8fb8-12bb97331649.jpg

總結(jié)

要說(shuō)上次看PET時(shí)我對(duì)Prompt范式還是將信將疑,看完這幾篇之后就比較認(rèn)可了。尤其是Prompt-tuning的一系列實(shí)驗(yàn),確實(shí)證明了增加少量可調(diào)節(jié)參數(shù)可以很好地運(yùn)用大模型,并且模型能力越強(qiáng),所需要的prompt人工調(diào)參就越少。

這種參數(shù)化Prompt的方法除了避免「人工」智能外,還有一方面就是省去了Y的映射。因?yàn)樵诰{(diào)的過(guò)程中,模型的輸出就被拿捏死了,而且Prompt-tuning還用label初始化Prompt,更加讓模型知道要輸出啥。

Finally,終于追上了前沿,大家的鬼點(diǎn)子可真多啊。

來(lái)源:李rumor

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • PET
    PET
    +關(guān)注

    關(guān)注

    1

    文章

    43

    瀏覽量

    18672
  • MLPM
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    6797
  • prompt
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    2659

原文標(biāo)題:Prompt范式,真香

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    PPEC:零成本技術(shù)交底,賦能電源開(kāi)發(fā)新范式

    。二、電源開(kāi)發(fā)方案合作 PPEC電源開(kāi)發(fā)模式:基于客戶需求進(jìn)行樣機(jī)研發(fā),并交付全套開(kāi)發(fā)生產(chǎn)技術(shù)資料,研發(fā)費(fèi)用可抵PPEC芯片貨款,實(shí)現(xiàn)“0“成本技術(shù)交底,賦能電源開(kāi)發(fā)新范式。▍客戶需求:客戶提出需求
    發(fā)表于 09-06 19:06

    MEMS諧振傳感器新范式:熱噪聲驅(qū)動(dòng)的傳感器的可行性與動(dòng)態(tài)檢測(cè)性能

    resonant sensors”的研究論文,提出了一種新的微納諧振傳感器范式——熱噪聲驅(qū)動(dòng)的諧振傳感器, 構(gòu)建了該范式下傳感器信噪比、動(dòng)態(tài)范圍與頻率穩(wěn)定性等性能指標(biāo)的理論框架,并實(shí)驗(yàn)驗(yàn)證了熱噪聲驅(qū)動(dòng)的傳感器的可行性與動(dòng)態(tài)檢測(cè)性能,為納米尺度下可在室溫和常壓下工作、更簡(jiǎn)
    的頭像 發(fā)表于 06-29 10:57 ?8205次閱讀
    MEMS諧振傳感器新<b class='flag-5'>范式</b>:熱噪聲驅(qū)動(dòng)的傳感器的可行性與動(dòng)態(tài)檢測(cè)性能

    esp32 console顯示丟失第一個(gè)字符的原因?

    uart_config = ESP_CONSOLE_DEV_UART_CONFIG_DEFAULT(); /* Prompt to be printed before each line. * This can
    發(fā)表于 06-19 07:49

    以守為攻,零信任安全防護(hù)能力的新范式

    (Zero Trust Security)被提出,并逐漸成為提升網(wǎng)絡(luò)安全防護(hù)能力的新范式。本文主要探討攻擊路徑的演變、零信任體系在各個(gè)階段的防護(hù)作用,并探討零信任體系未來(lái)可能的發(fā)展方向。 攻擊路徑 攻擊路徑是指攻擊者利用一系列的步驟和方法,在
    的頭像 發(fā)表于 05-27 10:18 ?830次閱讀
    以守為攻,零信任安全防護(hù)能力的新<b class='flag-5'>范式</b>

    你們能用定時(shí)器能達(dá)到1us的精度嗎?

    你們能用定時(shí)器能達(dá)到1us的精度么
    發(fā)表于 05-16 07:19

    鴻蒙ArkUI:【從代碼到UI顯示的整體渲染流程】

    方舟開(kāi)發(fā)框架(簡(jiǎn)稱ArkUI)是鴻蒙開(kāi)發(fā)的UI框架,提供如下兩種開(kāi)發(fā)范式,我們 **只學(xué)聲明式開(kāi)發(fā)范式**
    的頭像 發(fā)表于 05-13 16:06 ?718次閱讀
    鴻蒙ArkUI:【從代碼到UI顯示的整體渲染流程】

    STM8L151G6串口進(jìn)不了中斷的原因?

    (); __enable_interrupt();//**************開(kāi)總中斷 while (1) { /*Prompt_Tone(4); delay_ms(500); Prompt_Tone(0
    發(fā)表于 04-30 07:48

    150年創(chuàng)新不止 A.O.史密斯展現(xiàn)未來(lái)智能家居新范式

    好水,樂(lè)享健康生活"理念震撼亮相N4館。從智慧五恒系統(tǒng)到好風(fēng)好水健康廚房,從150年旗艦/經(jīng)典系列再到旗下年輕時(shí)尚品牌佳尼特……A.O.史密斯自主開(kāi)發(fā)的"高端智慧互聯(lián)一站式好風(fēng)好水解決方案"奪人眼球、人氣爆棚,為在場(chǎng)觀眾清晰勾勒出了未來(lái)智能家居的新范式。 ? 智慧五恒
    的頭像 發(fā)表于 04-24 23:32 ?222次閱讀

    復(fù)盤(pán)與分析:Sora是如何成功的?

    從技術(shù)路線看,依舊遵從LLM范式“大力出奇跡”,通過(guò)patches向量化與transformer架構(gòu)結(jié)合,使得訓(xùn)練數(shù)據(jù)能夠使用大小、尺寸、分辨率不同的視頻,能夠讓模型學(xué)習(xí)到視頻的規(guī)律乃至世界的規(guī)律;使用GPT生成prompt,在訓(xùn)練和推理過(guò)程中解決了模態(tài)之間的對(duì)齊問(wèn)題,大
    的頭像 發(fā)表于 02-25 16:44 ?505次閱讀
    復(fù)盤(pán)與分析:Sora是如何成功的?

    如何從訓(xùn)練集中生成候選prompt 三種生成候選prompt的方式

    這個(gè)“gradient”怎么得到的了呢,這是個(gè)啥玩意,怎么還有梯度?注意,注意。人家是帶引號(hào)的!比喻成梯度。這玩意有什么用呢。 文章指出給定一批error samples(當(dāng)前prompt無(wú)法
    的頭像 發(fā)表于 01-12 11:29 ?790次閱讀
    如何從訓(xùn)練集中生成候選<b class='flag-5'>prompt</b> 三種生成候選<b class='flag-5'>prompt</b>的方式

    一文帶你了解 DAC

    一文了解 DAC
    的頭像 發(fā)表于 12-07 15:10 ?8268次閱讀
    一文帶你<b class='flag-5'>了解</b> DAC

    了解PWM“死區(qū)”嗎?

    了解PWM“死區(qū)”嗎?
    的頭像 發(fā)表于 11-24 16:47 ?891次閱讀
    你<b class='flag-5'>了解</b>PWM“死區(qū)”嗎?

    workflow異步任務(wù)調(diào)度編程范式

    ,workflow是一個(gè)異步任務(wù)調(diào)度編程范式,封裝了6種異步資源:CPU計(jì)算、GPU計(jì)算、網(wǎng)絡(luò)、磁盤(pán)I/O、定時(shí)器、計(jì)數(shù)器,以回調(diào)函數(shù)模式提供給用戶使用,概括起來(lái)實(shí)際上主要是兩個(gè)功能:1、屏蔽阻塞調(diào)用的影響,使阻塞調(diào)用的開(kāi)發(fā)接口變?yōu)楫惒降?,充分利用?jì)算資
    的頭像 發(fā)表于 11-09 09:42 ?447次閱讀
    workflow異步任務(wù)調(diào)度編程<b class='flag-5'>范式</b>

    你們正點(diǎn)原子的mini四軸飛行器的控制器是多少位的?

    你們正點(diǎn)原子的mini四軸飛行器的控制器是多少位的
    發(fā)表于 11-08 07:40

    FPC阻抗你們用什么軟件模擬呀

    FPC阻抗你們用什么軟件模擬呀,比如25um的PI,銅厚12um,線寬0.1和0.12mm,阻抗相差多少
    發(fā)表于 11-03 19:36