0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于預(yù)訓(xùn)練視覺-語言模型的跨模態(tài)Prompt-Tuning

深度學(xué)習(xí)自然語言處理 ? 來源:zenRRan ? 作者:zenRRan ? 2021-10-09 15:10 ? 次閱讀

論文:CPT:Colorful Prompt Tuning for Pre-Training Vision-Language Models

狀態(tài):Work in Progress

單位:清華大學(xué)、新加坡國立大學(xué)

鏈接:https://arxiv.org/pdf/2109.11797.pdf

提取摘要

預(yù)訓(xùn)練的視覺語言模型 (VL-PTMs) 在將自然語言融入圖像數(shù)據(jù)中顯示出有前景的能力,促進(jìn)了各種跨模態(tài)任務(wù)。

然而,作者注意到模型pre-training和finetune的客觀形式之間存在顯著差距,導(dǎo)致需要大量標(biāo)記數(shù)據(jù)來刺激 VL-PTMs 對下游任務(wù)的視覺基礎(chǔ)能力。

為了應(yīng)對這一挑戰(zhàn),本文提出了跨模態(tài)提示調(diào)優(yōu)Cross-modal Prompt Tuning(CPT,或者,彩色-Color提示調(diào)優(yōu)),這是一種用于finetune VL-PTMs 的新范式,它在圖像和文本中使用基于顏色的共同參照標(biāo)記重新構(gòu)建了視覺定位問題,使之成為一個填空問題,最大限度地縮小差距。

通過這種方式,本文的Prompt-Tuning方法可以讓 VL-PTMs 在少樣本甚至零樣本的強(qiáng)大的視覺預(yù)測能力。

綜合實(shí)驗(yàn)結(jié)果表明,Prompt-Tuning的 VL-PTMs 大大優(yōu)于 finetune 的方法(例如,在 RefCOCO 評估中,一次平均提高 17.3% 準(zhǔn)確度,one shot下平均相對標(biāo)準(zhǔn)偏差降低73.8%)。

數(shù)據(jù)和代碼會在之后公開,小伙伴們不要急~

方法介紹

背景:該任務(wù)為Visual Grounding視覺定位問題,通過一個給定的expression來定位在圖像中的位置。

Pre-training和fine-tuning

比如有一張識別好的圖片和下面的文字:

4ce01cce-2246-11ec-82a8-dac502259ad0.png

普通使用MLM(masked language modeling)的預(yù)訓(xùn)練模型的到VL-PTMs方法為:

4d581986-2246-11ec-82a8-dac502259ad0.png

就是使用[mask]機(jī)制來預(yù)測被被掩蓋的token。

而finetune的話,就是使用傳統(tǒng)的[CLS]來遷就下游的任務(wù),比如做二分類:

4dde4a06-2246-11ec-82a8-dac502259ad0.png

而使用被大規(guī)模數(shù)據(jù)預(yù)訓(xùn)練的模型通過[CLS]來遷就下游任務(wù),其實(shí)并不可解釋,而反過來讓下游帶著任務(wù)來到預(yù)訓(xùn)練模型的[mask]戰(zhàn)場上,才能更能發(fā)揮其作用呀。

CPT: Cross-model Prompt Tuning

CPT方法首先將圖片用不同顏色來區(qū)分不同的實(shí)體模塊:

4e6a3e12-2246-11ec-82a8-dac502259ad0.png

其次將Query Text插入到color-based的模板(eg. is in [mask] color)里:

4f1e1770-2246-11ec-82a8-dac502259ad0.png

最后在[mask]上預(yù)測對應(yīng)的該是哪個顏色即可,語義上非常行得通。

模型公式

普通Finetune for VL-PLMs

首先從圖片 I 中通過目標(biāo)檢測工具,檢測出一系列的region:

4f97a306-2246-11ec-82a8-dac502259ad0.png

最終這些被選出來的region和Query Text(w)將被放入:

4ffcb052-2246-11ec-82a8-dac502259ad0.png

其中[IMG]、[CLS]和[SEP]為特殊token。

其中圖片regions的representation通過視覺的encoder獲得,而文本的就是lookup即可,最后通過預(yù)訓(xùn)練模型VL-PLMs會得到:

50520d36-2246-11ec-82a8-dac502259ad0.png

最終使用隱層finetune做分類即可。

但是,finetuned VL-PLMs需要大量的標(biāo)注數(shù)據(jù)來提高視覺定位的效果,這個也是一個弊端吧。

Cross-Modal Prompt Tuning - CPT

上面說過了,CPT需要兩個部分:

視覺子prompt

文本子prompt

視覺子prompt,目的是為了區(qū)分每一個region通過可分辨的標(biāo)記,比如顏色,比如RGB (255, 0, 0)表示red,RGB和text要對應(yīng)起來。

這里要注意的是,這個子prompt是直接加在原圖片上的,所以既沒有改變模型結(jié)果,又沒有改變參數(shù)。

文本子prompt,目的就是在圖片和Query Text之間建立一個鏈接,這里使用的模板為:

50afb7a6-2246-11ec-82a8-dac502259ad0.png

然后,VL-PTMs模型通過這樣的提示(prompt)來決定哪個顏色的region填在這個空里最恰當(dāng):

51029b1a-2246-11ec-82a8-dac502259ad0.png

實(shí)驗(yàn)

和finetune相比,CPT在zero-shot和few-shot下,性能可以說是爆表,巨額提升。在全量數(shù)據(jù)下,也能達(dá)到最佳值或者接近最佳值:

5175c4d2-2246-11ec-82a8-dac502259ad0.png

CPT在其他視覺任務(wù)上的應(yīng)用

實(shí)體檢測

52040c92-2246-11ec-82a8-dac502259ad0.png

謂元分類

52a17086-2246-11ec-82a8-dac502259ad0.png

場景圖分類

53448974-2246-11ec-82a8-dac502259ad0.png

總之,Prompt方法就是通過模板重新定義了任務(wù),讓模型更具有解釋性,本篇文章第一次將Prompt用在了Vision-Language上,未來還會有很大的研究動向,感興趣的小伙伴可以細(xì)讀原文。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    6760

    瀏覽量

    88619
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    794

    瀏覽量

    58306
  • CLS
    CLS
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    9684
  • prompt
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    2659

原文標(biāo)題:清華劉知遠(yuǎn)提出CPT:基于預(yù)訓(xùn)練視覺-語言模型的跨模態(tài)Prompt-Tuning

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    語言模型預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語言模型預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過在海量無標(biāo)簽數(shù)據(jù)上進(jìn)行訓(xùn)練,使
    的頭像 發(fā)表于 07-11 10:11 ?319次閱讀

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    預(yù)訓(xùn)練模型(Pre-trained Model)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的一個重要概念,尤其是在自然語言處理(NLP)和計算機(jī)視覺(CV)
    的頭像 發(fā)表于 07-03 18:20 ?1813次閱讀

    語言模型:原理與工程時間+小白初識大語言模型

    語言模型進(jìn)行預(yù)訓(xùn)練,此處預(yù)訓(xùn)練為自然語言處理領(lǐng)域的
    發(fā)表于 05-12 23:57

    【大語言模型:原理與工程實(shí)踐】大語言模型的應(yīng)用

    操作。所謂零樣本提示(Zero-Shot Prompt),指的是在提示詞中不包含與指令任務(wù)相似的任何示例。 當(dāng)大語言模型訓(xùn)練完成后,它便具備了分析情緒和識別命名實(shí)體等常見任務(wù)的能力,
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實(shí)踐】大語言模型預(yù)訓(xùn)練

    語言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對預(yù)
    發(fā)表于 05-07 17:10

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    全面剖析大語言模型的核心技術(shù)與基礎(chǔ)知識。首先,概述自然語言的基本表示,這是理解大語言模型技術(shù)的前提。接著,詳細(xì)介紹自然
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實(shí)踐】核心技術(shù)綜述

    的復(fù)雜模式和長距離依賴關(guān)系。 預(yù)訓(xùn)練策略: 預(yù)訓(xùn)練是LLMs訓(xùn)練過程的第一階段,模型在大量的
    發(fā)表于 05-05 10:56

    【大語言模型:原理與工程實(shí)踐】探索《大語言模型原理與工程實(shí)踐》

    處理中預(yù)訓(xùn)練架構(gòu)Transformer,以及這些技術(shù)在現(xiàn)實(shí)世界中的如何應(yīng)用。通過具體案例的分析,作者展示了大語言模型在解決實(shí)際問題中的強(qiáng)大能力,同時也指出了當(dāng)前技術(shù)面臨的挑戰(zhàn)和局限性。
    發(fā)表于 04-30 15:35

    字節(jié)發(fā)布機(jī)器人領(lǐng)域首個開源視覺-語言操作大模型,激發(fā)開源VLMs更大潛能

    對此,ByteDance Research 基于開源的多模態(tài)語言視覺模型 OpenFlamingo 開發(fā)了開源、易用的 RoboFlamingo 機(jī)器人操作
    的頭像 發(fā)表于 01-23 16:02 ?442次閱讀
    字節(jié)發(fā)布機(jī)器人領(lǐng)域首個開源<b class='flag-5'>視覺</b>-<b class='flag-5'>語言</b>操作大<b class='flag-5'>模型</b>,激發(fā)開源VLMs更大潛能

    機(jī)器人基于開源的多模態(tài)語言視覺模型

    ByteDance Research 基于開源的多模態(tài)語言視覺模型 OpenFlamingo 開發(fā)了開源、易用的 RoboFlamingo 機(jī)器人操作
    發(fā)表于 01-19 11:43 ?324次閱讀
    機(jī)器人基于開源的多<b class='flag-5'>模態(tài)</b><b class='flag-5'>語言</b><b class='flag-5'>視覺</b>大<b class='flag-5'>模型</b>

    模型+多模態(tài)的3種實(shí)現(xiàn)方法

    我們知道,預(yù)訓(xùn)練LLM已經(jīng)取得了諸多驚人的成就, 然而其明顯的劣勢是不支持其他模態(tài)(包括圖像、語音、視頻模態(tài))的輸入和輸出,那么如何在預(yù)
    的頭像 發(fā)表于 12-13 13:55 ?1530次閱讀
    大<b class='flag-5'>模型</b>+多<b class='flag-5'>模態(tài)</b>的3種實(shí)現(xiàn)方法

    語言模型簡介:基于大語言模型模型全家桶Amazon Bedrock

    本文基于亞馬遜云科技推出的大語言模型與生成式AI的全家桶:Bedrock對大語言模型進(jìn)行介紹。大語言模型
    的頭像 發(fā)表于 12-04 15:51 ?703次閱讀

    語言對齊多模態(tài)信息,北大騰訊等提出LanguageBind,刷新多個榜單

    目前的 VL 預(yù)訓(xùn)練方法通常僅適用于視覺語言模態(tài),而現(xiàn)實(shí)世界中的應(yīng)用場景往往包含更多的模態(tài)信息
    的頭像 發(fā)表于 11-23 15:46 ?612次閱讀
    用<b class='flag-5'>語言</b>對齊多<b class='flag-5'>模態(tài)</b>信息,北大騰訊等提出LanguageBind,刷新多個榜單

    哈工大提出Myriad:利用視覺專家進(jìn)行工業(yè)異常檢測的大型多模態(tài)模型

    最近,大型多模態(tài)(即視覺語言模型(LMM)在圖像描述、視覺理解、視覺推理等多種
    的頭像 發(fā)表于 11-21 16:08 ?1516次閱讀
    哈工大提出Myriad:利用<b class='flag-5'>視覺</b>專家進(jìn)行工業(yè)異常檢測的大型多<b class='flag-5'>模態(tài)</b><b class='flag-5'>模型</b>

    北大&amp;華為提出:多模態(tài)基礎(chǔ)大模型的高效微調(diào)

    深度學(xué)習(xí)的大模型時代已經(jīng)來臨,越來越多的大規(guī)模預(yù)訓(xùn)練模型在文本、視覺和多模態(tài)領(lǐng)域展示出杰出的生成
    的頭像 發(fā)表于 11-08 16:20 ?699次閱讀
    北大&amp;華為提出:多<b class='flag-5'>模態(tài)</b>基礎(chǔ)大<b class='flag-5'>模型</b>的高效微調(diào)