0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個(gè)具有泛化性的小樣本語義分割(GFS-Seg)

工程師鄧生 ? 來源:GiantPandaCV ? 作者:李響 ? 2022-09-13 08:56 ? 次閱讀

1 前言

之前已經(jīng)有過關(guān)于小樣本語義分割的論文解讀,關(guān)于如何用 Transformer 思想的分類器進(jìn)行小樣本分割。本篇是發(fā)表在 CVPR 2022 上的 Generalized Few-shot Semantic Segmentation(后文簡稱 GFS-Seg),既一種泛化的小樣本語義分割模型。在看論文的具體內(nèi)容之前,我們先了解一些前置知識(shí)。

深度學(xué)習(xí)是 Data hunger 的方法, 需要大量的數(shù)據(jù),標(biāo)注或者未標(biāo)注。少樣本學(xué)習(xí)研究就是如何從少量樣本中去學(xué)習(xí)。拿分類問題來說,每個(gè)類只有一張或者幾張樣本。少樣本學(xué)習(xí)可以分為 Zero-shot Learning(即要識(shí)別訓(xùn)練集中沒有出現(xiàn)過的類別樣本)和 One-Shot Learning/Few shot Learning(即在訓(xùn)練集中,每一類都有一張或者幾張樣本)。以 Zero-shot Learning 來說,比如有一個(gè)中文 “放棄”,要你從 I, your、 she、them 和 abnegation 五個(gè)單詞中選擇出來對應(yīng)的英文單詞,盡管你不知道“放棄”的英文是什么,但是你會(huì)將“放棄”跟每個(gè)單詞對比,而且在你之前的學(xué)習(xí)中,你已經(jīng)知道了 I、 your、she 和 them 的中文意思,都不是“放棄”,所以你會(huì)選擇 abnegation。還需要明確幾個(gè)概念:

Support set:支撐集,每次訓(xùn)練的樣本集合。

Query set:查詢集,用于與訓(xùn)練樣本比對的樣本,一般來說 Query set 就是一個(gè)樣本。

在 Support set 中,如果有 n 個(gè)種類,每個(gè)種類有 k 個(gè)樣本,那么這個(gè)訓(xùn)練過程叫 n-way k-shot。如每個(gè)類別是有 5 個(gè) examples 可供訓(xùn)練,因?yàn)橛?xùn)練中還要分 Support set 和 Query set,5-shots 場景至少需要 5+1 個(gè)樣例,至少一個(gè) Query example 去和 Support set 的樣例做距離(分類)判斷。

2 概述

訓(xùn)練語義分割模型需要大量精細(xì)注釋的數(shù)據(jù),這使得它很難快速適應(yīng)不滿足這一條件的新類,F(xiàn)S-Seg 在處理這個(gè)問題時(shí)有很多限制條件。在這篇文章中引入了一個(gè)新的方法,稱為 GFS-Seg,能同時(shí)分割具有極少樣本的新類別和具有足夠樣本的基礎(chǔ)類別的能力。建立了一個(gè) GFS-Seg baseline,在不對原模型進(jìn)行結(jié)構(gòu)性改變的情況下能取得不錯(cuò)的性能。此外,由于上下文信息對語義分割至關(guān)重要,文中提出了上下文感知原型學(xué)習(xí)架構(gòu)(CAPL),利用 Support Set 樣本共同的先驗(yàn)知識(shí),根據(jù)每個(gè) Query Set 圖像的內(nèi)容動(dòng)態(tài)地豐富分類器的上下文信息,顯著提高性能。

3 GFS-Seg 和 FS-Seg 的 Pipeline 區(qū)別

如下圖所示,GFS-Seg 有三個(gè)階段。分別是:基類的學(xué)習(xí)階段;新類的注冊階段,其中包含新類的少數(shù) Support set 樣本;對基類和新類的評估階段。也就是說,GFS-Seg 與 FS-Seg 的區(qū)別在于,在評估階段,GFS-Seg 不需要轉(zhuǎn)發(fā)測試(Query set)樣本中包含相同目標(biāo)類的 Support set 樣本來進(jìn)行預(yù)測,因?yàn)?GFS-Seg 在基類學(xué)習(xí)階段和新類注冊階段應(yīng)該已經(jīng)分別獲得了基類和新類的信息。GFS-Seg 在事先不知道查詢圖像中包含哪些類別的情況下,同時(shí)對新類進(jìn)行預(yù)測時(shí),可以在不犧牲基類準(zhǔn)確性的情況下仍表現(xiàn)良好。

9e79c994-32fe-11ed-ba43-dac502259ad0.png

4 Towards GFS-Seg

在經(jīng)典的 Few-Shot Segmentation 任務(wù)中,有兩個(gè)關(guān)鍵標(biāo)準(zhǔn):(1) 模型在訓(xùn)練期間沒有看到測試類的樣本。(2) 模型要求其 Support set 樣本包含 Query set 中存在的目標(biāo)類,以做出相應(yīng)的預(yù)測。

通過下圖,我們來看下 GFS-Seg 與經(jīng)典人物有哪些不同。下圖中用相同的 Query 圖像說明了 FS-Seg 和 GFS-Seg 的一個(gè) 2-way K-shot 任務(wù),其中牛和摩托車是新的類,人和車是基類。先來看下 (a),Prototype Network 通過 Embedding Generation 函數(shù),將牛和摩托車的少量訓(xùn)練樣本映射為 2 個(gè)向量,在檢測分類時(shí)候,將待分割圖像的特征也通過 Embedding Generation 映射為向量,最后計(jì)算待檢測向量與 2 個(gè)向量的特征差異(假設(shè)是距離),認(rèn)定距離最小的為預(yù)測類別。(a) 只限于預(yù)測 Support set 中包含的類的二進(jìn)制分割掩碼。右邊的人和上面的車在預(yù)測中缺失,因?yàn)橹С旨瘺]有提供這些類的信息,即使模型已經(jīng)在這些基類上訓(xùn)練了足夠的 epoch。此外,如果 (a) 的支持集提供了查詢圖像中沒有的多余的新類(如飛機(jī)),這些類別可能會(huì)影響模型性能,因?yàn)?FS-Seg 有一個(gè)前提條件,即 Query 圖像必須是 Support set 樣本提供的類。

FS-Seg 模型只學(xué)習(xí)并預(yù)測給定的新類的前景掩碼,所以在我們提出的 GFS-Seg 的通用化設(shè)置中,性能會(huì)大大降低,因?yàn)樗锌赡艿幕惡托骂惗夹枰A(yù)測。不同的是,(b) 也就是 GFS-Seg,在沒有 Query 圖像中包含的類的先驗(yàn)知識(shí)的情況下,同時(shí)識(shí)別基類和新類,額外的 Support set(如 (b) 左上角的飛機(jī))應(yīng)該不會(huì)對模型產(chǎn)生很大影響。在評估過程中,GFS-Seg 不需要事先了解 Query 圖像中存在哪些目標(biāo)類別,而是通過注冊新的類別,對所有測試圖像一次性形成一個(gè)新的分類器((b) 中的藍(lán)色區(qū)域代表新的類別注冊階段)。

9f47b8e0-32fe-11ed-ba43-dac502259ad0.png


此外,還有更多關(guān)于 GFS-Seg 的 baseline 細(xì)節(jié),這里就不詳細(xì)展開了,讀者們可以一遍看代碼一邊看論文中的解釋,不難理解。

5 上下文感知原型學(xué)習(xí)(CAPL)

原型學(xué)習(xí)(PL)適用于小樣本分類和 FS-Seg,但它對 GFS-Seg 的效果較差。在 FS-Seg 的設(shè)置中,查詢樣本的標(biāo)簽只來自于新的類別。因此,新類和基類之間沒有必要的聯(lián)系,可以利用它來進(jìn)一步改進(jìn)。然而,在 GFS-Seg 中,對每個(gè)測試圖像中包含的類別沒有這樣的限制,需要對所有可能的基類和新穎類進(jìn)行預(yù)測。

9fa216a0-32fe-11ed-ba43-dac502259ad0.png

如上圖所示,我們不關(guān)注 SCE 和 DQCE 的計(jì)算過程。SCE 只發(fā)生在新的類注冊階段,它利用支持 Support set 樣本來提供先驗(yàn)知識(shí)。然而,在評估階段,新分類器由所有 Query 圖像共享,因此引入的先驗(yàn)可能會(huì)偏向于有限的 Support set 樣本的內(nèi)容,導(dǎo)致對不同 Query 圖像的泛化能力較差。為了緩解這個(gè)問題,進(jìn)一步提出了動(dòng)態(tài)查詢上下文豐富計(jì)算(DQCE),它通過動(dòng)態(tài)合并從單個(gè)查詢樣本中挖掘的基本語義信息,使新分類器適應(yīng)不同的上下文。繼續(xù)看上圖,N‘n 個(gè)新類別(例如摩托車和奶牛)的權(quán)重直接由特征平均得出。此外,Support set 中出現(xiàn)的 N’b 個(gè)基類(例如人、汽車、羊和公共汽車)的權(quán)重由 SCE 用原始權(quán)重計(jì)算得出。此外,DQCE 通過從 Query set 樣本中提取的臨時(shí)上下文特征,動(dòng)態(tài)豐富了分類器中 N'b 個(gè)基類的權(quán)重。綜上,新的分類器結(jié)合了 SCE 和 DQCE 的優(yōu)點(diǎn)。

GFS-Seg 使用 CAPL 的方式完成訓(xùn)練,具體性能表現(xiàn)在下面的實(shí)驗(yàn)部分列出。

6 實(shí)驗(yàn)

如下表所示,CANet、SCL、PFENet 和 PANet 與用 CAPL 實(shí)現(xiàn)的模型相比表現(xiàn)不佳。值得注意的是,下表中的 mIoU 的結(jié)果是在 GFS-Seg 配置下的,因此它們低于這些 FS-Seg 模型的論文中給出的結(jié)果,這種差異是由不同的全局設(shè)置造成的。在 GFS-Seg 中,模型需要在給定的測試圖像中識(shí)別所有的類,包括基類和新類,而在 FS-Seg 中,模型只需要找到屬于一個(gè)特殊的新類的像素,不會(huì)去分割基類,Support set 的樣本提供了目標(biāo)類是什么的先驗(yàn)知識(shí)。因此,在 GFS-Seg 中,存在基類干擾的情況下,識(shí)別新類要難得多,所以數(shù)值很低。

a093006a-32fe-11ed-ba43-dac502259ad0.png

FS-Seg 是 GFS-Seg 的一個(gè)極端情況。所以為了在 FS-Seg 的中驗(yàn)證提出的 CAPL,在下表中,我們將 CAPL 合并到 PANet 和 PFENet??梢钥闯?, CAPL 對 baseline 實(shí)現(xiàn)了顯著的改進(jìn)。數(shù)據(jù)集是 Pascal-5i 和 COCO-20i ,只需要識(shí)別新類。

a0c715b2-32fe-11ed-ba43-dac502259ad0.png

下圖對分割結(jié)果進(jìn)行了可視化,其中 SCE 和 DQCE 的組合進(jìn)一步完善了 baseline 的預(yù)測,還有一些消融實(shí)驗(yàn)的效果這里不一一列出了。

a15ad16c-32fe-11ed-ba43-dac502259ad0.png

7 結(jié)論

這篇閱讀筆記僅為個(gè)人理解,文章提出了一個(gè)具有泛化性的小樣本語義分割(GFS-Seg),并提出了一個(gè)新的解決方案:上下文感知原型學(xué)習(xí)(CAPL)。與經(jīng)典的 FS-Seg 不同,GFS-Seg 旨在識(shí)別 FS-Seg 模型所不能識(shí)別的基礎(chǔ)類和新類。提出的 CAPL 通過動(dòng)態(tài)地豐富上下文信息的適應(yīng)性特征,實(shí)現(xiàn)了性能的顯著提高。CAPL 對基礎(chǔ)模型沒有結(jié)構(gòu)上的限制,因此它可以很容易地應(yīng)用于普通的語義分離框架,并且它可以很好地推廣到 FS-Seg。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:CVPR 2022:Generalized Few-shot Semantic Segmentation 解讀

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    手冊上新 |迅為RK3568開發(fā)板NPU例程測試

    yolov5目標(biāo)檢測 6.13 yolov5-seg語義分割 6.14 yolov6目標(biāo)檢測 6.15 yolov7目標(biāo)檢測 6.16 yolov8目標(biāo)檢測 6.17 yolov8_seg
    發(fā)表于 10-23 14:06

    語義分割25種損失函數(shù)綜述和展望

    本綜述提供了對25種用于圖像分割的損失函數(shù)的全面且統(tǒng)的回顧。我們提供了種新穎的分類法,并詳細(xì)審查了這些損失函數(shù)如何在圖像分割中被定制和利用,強(qiáng)調(diào)了它們的重要特征和應(yīng)用,并進(jìn)行了系統(tǒng)
    的頭像 發(fā)表于 10-22 08:04 ?35次閱讀
    <b class='flag-5'>語義</b><b class='flag-5'>分割</b>25種損失函數(shù)綜述和展望

    畫面分割器怎么調(diào)試

    畫面分割器,通常指的是視頻畫面分割器,它是種可以將個(gè)視頻信號分割成多個(gè)小畫面的設(shè)備。這種設(shè)備
    的頭像 發(fā)表于 10-17 09:32 ?155次閱讀

    手冊上新 |迅為RK3568開發(fā)板NPU例程測試

    yolov5目標(biāo)檢測 6.13 yolov5-seg語義分割 6.14 yolov6目標(biāo)檢測 6.15 yolov7目標(biāo)檢測 6.16 yolov8目標(biāo)檢測 6.17 yolov8_seg
    發(fā)表于 08-12 11:03

    圖像語義分割的實(shí)用性是什么

    圖像語義分割種重要的計(jì)算機(jī)視覺任務(wù),它旨在將圖像中的每個(gè)像素分配到相應(yīng)的語義類別中。這項(xiàng)技術(shù)在許多領(lǐng)域都有廣泛的應(yīng)用,如自動(dòng)駕駛、醫(yī)學(xué)圖像分析、機(jī)器人導(dǎo)航等。
    的頭像 發(fā)表于 07-17 09:56 ?301次閱讀

    圖像分割語義分割的區(qū)別與聯(lián)系

    圖像分割語義分割是計(jì)算機(jī)視覺領(lǐng)域中兩個(gè)重要的概念,它們在圖像處理和分析中發(fā)揮著關(guān)鍵作用。 1. 圖像分割簡介 圖像
    的頭像 發(fā)表于 07-17 09:55 ?534次閱讀

    迅為RK3568手冊上新 | RK3568開發(fā)板NPU例程測試

    6.13 yolov5-seg語義分割 6.14 yolov6目標(biāo)檢測 6.15 yolov7目標(biāo)檢測 6.16 yolov8目標(biāo)檢測 6.17 yolov8_seg
    發(fā)表于 07-12 14:44

    機(jī)器學(xué)習(xí)中的數(shù)據(jù)分割方法

    在機(jī)器學(xué)習(xí)中,數(shù)據(jù)分割項(xiàng)至關(guān)重要的任務(wù),它直接影響到模型的訓(xùn)練效果、化能力以及最終的性能評估。本文將從多個(gè)方面詳細(xì)探討機(jī)器學(xué)習(xí)中數(shù)據(jù)分割的方法,包括常見的
    的頭像 發(fā)表于 07-10 16:10 ?927次閱讀

    圖像分割語義分割中的CNN模型綜述

    圖像分割語義分割是計(jì)算機(jī)視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個(gè)具有特定語義含義的區(qū)域或?qū)ο?。卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的
    的頭像 發(fā)表于 07-09 11:51 ?498次閱讀

    機(jī)器人視覺技術(shù)中常見的圖像分割方法

    機(jī)器人視覺技術(shù)中的圖像分割方法是個(gè)廣泛且深入的研究領(lǐng)域。圖像分割是將圖像劃分為多個(gè)區(qū)域或?qū)ο蟮倪^程,這些區(qū)域或?qū)ο?b class='flag-5'>具有某種共同的特征,如顏
    的頭像 發(fā)表于 07-09 09:31 ?339次閱讀

    在components下添加自定義組件,為什么my_seg組件就找不到my_seg.h頭文件?

    這是我的項(xiàng)目結(jié)構(gòu),在components下,我自定義了三個(gè)組件,分別為my_gpio,my_timer,my_seg,每個(gè)組件都添加了CMAKE,并且my_gpio和my_timer組件已經(jīng)能成
    發(fā)表于 06-05 06:54

    三項(xiàng)SOTA!MasQCLIP:開放詞匯通用圖像分割新網(wǎng)絡(luò)

    MasQCLIP在開放詞匯實(shí)例分割、語義分割和全景分割三項(xiàng)任務(wù)上均實(shí)現(xiàn)了SOTA,漲點(diǎn)非常明顯。這里也推薦工坊推出的新課程《徹底搞懂視覺-慣性SLAM:VINS-Fusion原理精講與
    的頭像 發(fā)表于 12-12 11:23 ?694次閱讀
    三項(xiàng)SOTA!MasQCLIP:開放詞匯通用圖像<b class='flag-5'>分割</b>新網(wǎng)絡(luò)

    異構(gòu)信號驅(qū)動(dòng)下小樣本跨域軸承故障診斷的GMAML算法

    論文提出了種通用的模型不可知元學(xué)習(xí)(GMAML)方法,用于在異質(zhì)信號驅(qū)動(dòng)的不同工況下,進(jìn)行軸承的少樣本故障診斷。
    的頭像 發(fā)表于 12-06 15:07 ?951次閱讀
    異構(gòu)信號驅(qū)動(dòng)下<b class='flag-5'>小樣本</b>跨域軸承故障診斷的GMAML算法

    基于Transformer的可化人體表征設(shè)計(jì)方案

    本文在ZJU-MoCap和H36M上進(jìn)行了化性實(shí)驗(yàn),結(jié)果如下圖所示。主要分為四個(gè)setting: Pose的化,Identity的化,
    的頭像 發(fā)表于 11-23 11:25 ?390次閱讀
    基于Transformer的可<b class='flag-5'>泛</b>化人體表征設(shè)計(jì)方案

    種在線激光雷達(dá)語義分割框架MemorySeg

    本文提出了種在線激光雷達(dá)語義分割框架MemorySeg,它利用三維潛在記憶來改進(jìn)當(dāng)前幀的預(yù)測。傳統(tǒng)的方法通常只使用單次掃描的環(huán)境信息來完成語義分割
    的頭像 發(fā)表于 11-21 10:48 ?509次閱讀
    <b class='flag-5'>一</b>種在線激光雷達(dá)<b class='flag-5'>語義</b><b class='flag-5'>分割</b>框架MemorySeg