0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種免反向傳播的 TTA 語義分割方法

jf_pmFSk4VX ? 來源:GiantPandaCV ? 2023-06-30 15:10 ? 次閱讀

我們已經(jīng)介紹過兩篇關(guān)于 TTA 的工作,可以在 GiantPandaCV 公眾號中找到,分別是:

Continual Test-Time 的領(lǐng)域適應(yīng)

CVPR 2023 中的領(lǐng)域適應(yīng): 通過自蒸餾正則化實現(xiàn)內(nèi)存高效的 CoTTA

推薦對領(lǐng)域適應(yīng)不了解的同學(xué)先閱讀前置文章。目前的 TTA 方法針對反向傳播的方式可以大致劃分為:

7a9f5ae0-16ef-11ee-962d-dac502259ad0.png請?zhí)砑訄D片描述

之前介紹過的 CoTTA 可以屬于 Fully Backward,EcoTTA 劃分為 Partial Backward 中的 Meta Network 類別,這次要介紹的方法屬于 Backward-Free 中的 BN-Based 和 Prototype-Based 的混合。下圖是一些 TTA 語義分割方式的比較,在(a)中是最樸素的重新做反向傳播優(yōu)化目標域模型梯度的方法,效率低,存在誤差積累,且會導(dǎo)致長期遺忘。(b)是直接用每個實例的統(tǒng)計數(shù)據(jù)替代源統(tǒng)計數(shù)據(jù)(通過修改 Instance Normalization),但由于丟棄了基本的源知識,因此對目標變化非常敏感,導(dǎo)致不穩(wěn)定。(c)研究了通過實例統(tǒng)計數(shù)據(jù)以固定動量或動態(tài)波動動量更新歷史統(tǒng)計數(shù)據(jù)的影響(相當于(b)的集群),然而,這種方法也容易受到誤差積累的影響。(d)表示這篇工作提出的方法,主要思想是以非參數(shù)化的方式利用每個實例來動態(tài)地進行自適應(yīng),這種方法既高效又能在很大程度上避免誤差積累問題。具體來說,計算 BN 層中源統(tǒng)計數(shù)據(jù)和當前統(tǒng)計數(shù)據(jù)的加權(quán)和,以適應(yīng)目標分布,從而使模型獲得更健壯的表示,還通過將歷史原型與實例級原型混合構(gòu)建動態(tài)非參數(shù)分類頭。7acd720e-16ef-11ee-962d-dac502259ad0.png

下面看下具體實現(xiàn)。

DIGA 概述

TTA 在語義分割中的應(yīng)用,效率和性能都至關(guān)重要。現(xiàn)有方法要么效率低(例如,需要反向傳播的優(yōu)化),要么忽略語義適應(yīng)(例如,分布對齊)。此外,還會受到不穩(wěn)定優(yōu)化和異常分布引起的誤差積累的困擾。為了解決這些問題,這篇工作提出了不需反向傳播優(yōu)化的 TTA 語義分割方法,被叫做稱為動態(tài)實例引導(dǎo)自適應(yīng)(DynamicallyInstance-Guided Adaptation, DIGA)。DIGA 的原則是以非參數(shù)化的方式利用每個實例動態(tài)引導(dǎo)其自身的適應(yīng),從而避免了誤差累積問題和昂貴的優(yōu)化成本(內(nèi)存)。具體而言,DIGA 由分布適應(yīng)模塊(DAM)和語義適應(yīng)模塊(SAM)組成。DAM 將實例和源 BN 層統(tǒng)計信息混合在一起,以鼓勵模型捕獲不變的表示。SAM 將歷史原型與實例級原型結(jié)合起來調(diào)整語義預(yù)測,這可以與參數(shù)化分類頭相關(guān)聯(lián)。具體細節(jié)在后文介紹。

DAM 和 SAM 兩者都由實例感知信息引導(dǎo)。如下圖所示,給定一個測試樣本,首先將其輸入到源預(yù)訓(xùn)練模型中,并通過 DAM 在每個 BN 層進行分布對齊。分布對齊是通過加權(quán)求和源統(tǒng)計和實例統(tǒng)計來實現(xiàn)的。之后,通過 SAM 在最后的特征層級上進行語義適應(yīng),通過加權(quán)混合歷史原型和實例感知原型來構(gòu)建一個動態(tài)非參數(shù)化分類頭。這使我們能夠調(diào)整語義預(yù)測。最后,我們利用原始參數(shù)化分類頭和動態(tài)非參數(shù)化分類頭之間的相互優(yōu)勢獲得最終的預(yù)測結(jié)果。

7b549f68-16ef-11ee-962d-dac502259ad0.png請?zhí)砑訄D片描述

Distribution Adaptation Module (DAM)

調(diào)整分布可以提高跨域測試性能,由于訓(xùn)練數(shù)據(jù)有限和反向傳播成本高,最常見的方法是對抗訓(xùn)練和分布差距最小化,但是不適合 TTA 任務(wù)。通常 BN 層中各域之間的靜態(tài)不匹配是跨域測試性能下降的主要原因。BN 層是使用可訓(xùn)練參數(shù) gamma 和 beta 進行縮放和移動。對于每個 BN 層,給定輸入特征表示 F,相應(yīng)的輸出由以下公式給出:

E[F] 和 Var[F] 分別代表輸入特征 F 的期望值和方差。在實踐中,由于批次訓(xùn)練過程,它們的值通過 running mean 在訓(xùn)練期間計算:

所以,有一種方法源域的 running mean 的最后一個值被凍結(jié),用作測試階段測試數(shù)據(jù)的預(yù)期值和方差的估計。但是,源統(tǒng)計信息仍會嚴重影響性能。還有一種方法提出了一種動態(tài)學(xué)習模塊,將 BN 層的統(tǒng)計信息 γ、β 調(diào)整為目標域(更新 γ、β)。盡管該方法具有高效性,但其性能仍然不理想??赡艿脑蛑皇悄P透滤俾释ǔ]^小,并且在每個實例評估過程中沒有充分考慮實例級別的信息。

所以 DAM 考慮到了利用實例級別的信息。DAM 不是直接更新 γ、β,而是通過動態(tài)地合并(加權(quán)求和)源統(tǒng)計信息和實例級別的 BN 統(tǒng)計信息來計算 E[F] 和 Var[F] 的估計值。

其中, 和 是在測試期間使用第 t 個實例計算的均值和方差。

Semantic Adaptation Module (SAM)

DAM 是與類別無關(guān)的,如上所述,因為它僅在全局上對特征圖的分布進行調(diào)整。然而,對于分割自適應(yīng)任務(wù)來說,類別特定性也很重要,因為即使在同一張圖像中,每個類別的分布也會有很大變化。為了解決這一點,之前的工作提出了兩種直觀的方法,熵最大化和偽標簽。然而,它們都需要基于梯度的反向傳播,因此限制了測試效率,和我們的思路背道而馳。受少樣本學(xué)習和域自適應(yīng)中基于原型的方法(Prototype-Based)的啟發(fā),引入了用于類別特定自適應(yīng)的 SAM。具體做法,總結(jié)有如下幾步,我們用通俗的話解釋下,至于論文中的公式,也會貼上。

計算 Instance-aware prototypes:

根據(jù)輸入圖像中每個類別的像素,計算其在特征空間中的中心點(prototypes),稱為實例感知原型。這些原型表示了每個類別的特征分布。

通過對不同實例的原型進行平均計算,得到歷史原型。歷史原型是在大量目標實例上計算得到的,具有較高的穩(wěn)定性。

Ensemble historical prototypes:

將歷史原型與實例感知原型進行集成,以進一步提高分類的準確性和穩(wěn)定性。

Cal prototype-based classification result:

使用計算得到的實例感知原型和歷史原型,通過比較輸入像素與原型之間的相似度,進行分類預(yù)測。這種基于原型的分類方法可以更好地適應(yīng)不同類別的變化。

Classifier Association

SAM 本質(zhì)上是 prototype-based classification。在最后的部分,可以得到兩種類型的預(yù)測:一種來自原始的參數(shù)化分類器(p?),另一種來自引入的非參數(shù)原型分類器(p ?)。為了利用它們之間的互補性,DIGA 還是通過加權(quán)求和來獲得最終的預(yù)測結(jié)果,表示為:

實驗

在實驗的部分,我們更關(guān)心的是這些組合的有效性。下表是對 DAM 和 SAM 的消融實驗,最后一行表示分類器關(guān)聯(lián)。對于 BN 分支和語義分支,都分別比較出最佳和次佳。7b87a53e-16ef-11ee-962d-dac502259ad0.png和直接使用源域模型、其他的 SOTA TTA 方法的可視化比較如下,可以發(fā)現(xiàn)在 cityscapes 上的優(yōu)化效果是最明顯的。

7ba0fe08-16ef-11ee-962d-dac502259ad0.png在這里插入圖片描述

總結(jié)

這篇工作提出了一種名為動態(tài)實例引導(dǎo)適應(yīng)(DIGA)的方法來解決 TTA 語義分割問題,該方法兼?zhèn)涓咝院陀行?。DIGA 包括兩個適應(yīng)性模塊,即分布適應(yīng)模塊(DAM)和語義適應(yīng)模塊(SAM),兩者均以非參數(shù)方式受實例感知信息引導(dǎo)。此外,這是第三篇關(guān)于 TTA 的論文解讀了,后面出現(xiàn)有趣的工作還會繼續(xù)這個系列的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 內(nèi)存
    +關(guān)注

    關(guān)注

    8

    文章

    2949

    瀏覽量

    73737
  • 像素
    +關(guān)注

    關(guān)注

    1

    文章

    202

    瀏覽量

    18533
  • 訓(xùn)練模型
    +關(guān)注

    關(guān)注

    1

    文章

    35

    瀏覽量

    3794
收藏 人收藏

    評論

    相關(guān)推薦

    一種新的粘連字符圖像分割方法

    一種新的粘連字符圖像分割方法針對監(jiān)控畫面采樣圖像中數(shù)字的自動識別問題,提出一種新的粘連字符圖像分割方法
    發(fā)表于 09-19 09:19

    一種帶驗證的自適應(yīng)鏡頭分割算法

    :文中針對鏡頭分割在基于內(nèi)容的視頻檢索中的重要性,首先介紹了普通的鏡頭分割方法,進而針對這些方法的不足,提出了一種帶檢測的自適應(yīng)鏡頭
    發(fā)表于 12-16 12:25 ?21次下載

    一種目標飛機分割提取方法

    提出了一種目標飛機分割提取方法,該方法采用改進的使用金字塔式分割策略的以彩色高斯混合模型CMM(Gaussian Mixture Model
    發(fā)表于 11-10 15:46 ?7次下載
    <b class='flag-5'>一種</b>目標飛機<b class='flag-5'>分割</b>提取<b class='flag-5'>方法</b>

    一種自動生成反向傳播方程的方法

    為此,我們提出一種領(lǐng)域特定語言(domain specific language),以將這些數(shù)學(xué)公式描述為原始函數(shù)列表,并使用一種基于進化(evolution-based)的方法來發(fā)現(xiàn)新的傳播
    的頭像 發(fā)表于 08-14 09:55 ?3786次閱讀
    <b class='flag-5'>一種</b>自動生成<b class='flag-5'>反向</b><b class='flag-5'>傳播</b>方程的<b class='flag-5'>方法</b>

    MIT提出語義分割技術(shù),電影特效自動化生成

    來自 MIT CSAIL 的研究人員開發(fā)了一種精細程度遠超傳統(tǒng)語義分割方法的「語義分割」技術(shù),
    的頭像 發(fā)表于 08-23 14:18 ?3818次閱讀

    Facebook AI使用單神經(jīng)網(wǎng)絡(luò)架構(gòu)來同時完成實例分割語義分割

    新架構(gòu)“全景 FPN ”在 Facebook 2017 年發(fā)布的 Mask R-CNN 的基礎(chǔ)上添加了個用于語義分割的分支。這新架構(gòu)
    的頭像 發(fā)表于 04-22 11:46 ?2826次閱讀
    Facebook AI使用單<b class='flag-5'>一</b>神經(jīng)網(wǎng)絡(luò)架構(gòu)來同時完成實例<b class='flag-5'>分割</b>和<b class='flag-5'>語義</b><b class='flag-5'>分割</b>

    語義分割方法發(fā)展過程

    語義分割的最簡單形式是對個區(qū)域設(shè)定必須滿足的硬編碼規(guī)則或?qū)傩?,進而指定特定類別標簽. 編碼規(guī)則可以根據(jù)像素的屬性來構(gòu)建,如灰度級強度(gray level intensity). 基于該技術(shù)的
    的頭像 發(fā)表于 12-28 14:28 ?5022次閱讀

    分析總結(jié)基于深度神經(jīng)網(wǎng)絡(luò)的圖像語義分割方法

    隨著深度學(xué)習技術(shù)的快速發(fā)展及其在語義分割領(lǐng)域的廣泛應(yīng)用,語義分割效果得到顯著提升。對基于深度神經(jīng)網(wǎng)絡(luò)的圖像語義
    發(fā)表于 03-19 14:14 ?21次下載
    分析總結(jié)基于深度神經(jīng)網(wǎng)絡(luò)的圖像<b class='flag-5'>語義</b><b class='flag-5'>分割</b><b class='flag-5'>方法</b>

    基于深度神經(jīng)網(wǎng)絡(luò)的圖像語義分割方法

    對應(yīng)用于圖像語義分割的幾種深度神經(jīng)網(wǎng)絡(luò)模型進行簡單介紹,接著詳細闡述了現(xiàn)有主流的基于深度神經(jīng)網(wǎng)絡(luò)的圖像語義分割方法,依據(jù)實現(xiàn)技術(shù)的區(qū)別對圖像
    發(fā)表于 04-02 13:59 ?11次下載
    基于深度神經(jīng)網(wǎng)絡(luò)的圖像<b class='flag-5'>語義</b><b class='flag-5'>分割</b><b class='flag-5'>方法</b>

    語義分割模型 SegNeXt方法概述

    語義分割是對圖像中的每個像素進行識別的一種算法,可以對圖像進行像素級別的理解。作為計算機視覺中的基礎(chǔ)任務(wù)之,其不僅僅在學(xué)術(shù)界廣受關(guān)注,也在無人駕駛、工業(yè)檢測、輔助診斷等領(lǐng)域有著廣泛的
    的頭像 發(fā)表于 09-27 15:27 ?3086次閱讀

    圖像語義分割的概念與原理以及常用的方法

    (Graph partitioning segmentation methods),在深度學(xué)習(Deep learning, DL)“統(tǒng)江湖”之前,圖像語義分割方面的工作可謂“百花齊放”。
    的頭像 發(fā)表于 04-20 10:01 ?3998次閱讀

    CVPR 2023 中的領(lǐng)域適應(yīng): 一種反向傳播TTA語義分割方法

    TTA語義分割中的應(yīng)用,效率和性能都至關(guān)重要?,F(xiàn)有方法要么效率低(例如,需要反向傳播的優(yōu)化)
    的頭像 發(fā)表于 06-30 15:13 ?888次閱讀
    CVPR 2023 中的領(lǐng)域適應(yīng): <b class='flag-5'>一種</b><b class='flag-5'>免</b><b class='flag-5'>反向</b><b class='flag-5'>傳播</b>的<b class='flag-5'>TTA</b><b class='flag-5'>語義</b><b class='flag-5'>分割</b><b class='flag-5'>方法</b>

    一種在線激光雷達語義分割框架MemorySeg

    本文提出了一種在線激光雷達語義分割框架MemorySeg,它利用三維潛在記憶來改進當前幀的預(yù)測。傳統(tǒng)的方法通常只使用單次掃描的環(huán)境信息來完成語義
    的頭像 發(fā)表于 11-21 10:48 ?508次閱讀
    <b class='flag-5'>一種</b>在線激光雷達<b class='flag-5'>語義</b><b class='flag-5'>分割</b>框架MemorySeg

    圖像分割語義分割中的CNN模型綜述

    圖像分割語義分割是計算機視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個具有特定語義含義的區(qū)域或?qū)ο?。卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習的一種核心
    的頭像 發(fā)表于 07-09 11:51 ?498次閱讀

    圖像語義分割的實用性是什么

    圖像語義分割一種重要的計算機視覺任務(wù),它旨在將圖像中的每個像素分配到相應(yīng)的語義類別中。這項技術(shù)在許多領(lǐng)域都有廣泛的應(yīng)用,如自動駕駛、醫(yī)學(xué)圖像分析、機器人導(dǎo)航等。
    的頭像 發(fā)表于 07-17 09:56 ?301次閱讀