0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ImgX-DiffSeg:基于DDPMs的3D醫(yī)學(xué)圖像分割

jf_pmFSk4VX ? 來源:GiantPandaCV ? 2023-05-15 09:19 ? 次閱讀

ImgX-DiffSeg:基于 DDPMs 的 3D 醫(yī)學(xué)圖像分割

前言

本篇文章繼續(xù)解讀醫(yī)學(xué)圖像 diffusion 系列,之前我們分別介紹過在自監(jiān)督和有監(jiān)督分割中的 diffusion 應(yīng)用。鏈接:

ICLR 2023:基于 diffusion adversarial representation learning 的血管分割

MedSegDiff:基于 Diffusion Probabilistic Model 的醫(yī)學(xué)圖像分割

而這次的《Importance of Aligning Training Strategy with Evaluation for Diffusion Models in 3D Multiclass Segmentation》這篇文章并不是一種新的 diffusion 應(yīng)用,而是對訓(xùn)練和推理策略進(jìn)行優(yōu)化,并適應(yīng) 3D 的醫(yī)學(xué)圖像分割任務(wù),參考鏈接在文末。

目前存在的問題

目前帶有 diffusion model 的架構(gòu)訓(xùn)練和推理耗時。

在一些分割任務(wù)中,并不確定 diffusion model 預(yù)測噪聲推斷分割圖和直接預(yù)測分割圖哪個效果更好。

模型過度依賴先前時間步中的信息

ImgX-DiffSeg 架構(gòu)

概述

DDPM 是一種生成模型,可用于圖像去噪和分割。工作原理模擬干凈圖像的概率分布,然后在圖像中添加噪點以生成噪聲版本。相反的,模型嘗試通過移除添加的噪點來對圖像進(jìn)行降噪。在圖像分割的情況下,模型會生成分割掩碼,可以根據(jù)輸入圖像的特征將圖像分成不同的區(qū)域,更細(xì)節(jié)的內(nèi)容推薦閱讀前置文章(強烈建議)。

對于 ImgX-DiffSeg,整體流程如下圖所示。首先,該架構(gòu)預(yù)測的是分割掩碼而不是采樣噪聲,并直接通過 Dice Loss 進(jìn)行優(yōu)化。這意味著 ImgX-DiffSeg 可以直接預(yù)測圖像的分割圖,而不是生成噪點并用它來推斷分割。其次,回收上一個時間步中預(yù)測的掩碼,生成(noise-corrupted mask)噪音損壞的掩碼。這有助于減少信息泄露,當(dāng)模型過度依賴先前時間步中的信息時,就會發(fā)生這種情況。最后,將訓(xùn)練的擴(kuò)散過程減少到五個步驟,與推理過程相同。擴(kuò)散過程是一種平滑圖像中噪點的方法,減少步驟數(shù)有助于提高效率。

1074b80c-f2b6-11ed-90ce-dac502259ad0.png

請?zhí)砑訄D片描述

DDPM with Variance Schedule Resampling

訓(xùn)練過程的公式和 DDPM 基本是保持一致的,下面的公式分別表示反向過程中預(yù)測噪聲和原圖:

推理過程中,DDPM 中的生成過程從正常噪聲開始,由變量 xT 表示。該初始噪聲是從平均值為 0 且方差為 1 的正態(tài)分布中采樣的。在生成過程的每個步驟中,使用預(yù)測的平均值 μ 對變量 xtk-1 進(jìn)行采樣。下標(biāo) k-1 表示上一個時間步。這意味著每步 x 的值取決于上一步中 x 的值以及分布的預(yù)測平均值。

上面這些流程均和 DDPM 相似,我們就不展開說明了。重點關(guān)注 Variance Schedule Resampling 的過程,也就是如何實現(xiàn)訓(xùn)練的擴(kuò)散過程減少到五個步驟的??梢岳斫鉃閷Ψ讲钪底有蛄羞M(jìn)行采樣的過程。給出了方差表 {βt} Tt=1,子序列 {βk} Kk=1 可以用 {tk} Kk=1 進(jìn)行采樣。簡而言之,在訓(xùn)練或推理過程中,給出方差值序列,并對這些值的子序列進(jìn)行采樣。子序列中的值是根據(jù)先前的值和重新計算的值計算的。目標(biāo)是通過在訓(xùn)練或推理期間調(diào)整方差值來優(yōu)化模型的性能。如果是在圖像去噪任務(wù)中進(jìn)行方差的重采樣,一定會影響結(jié)果,但在分割任務(wù)中經(jīng)過驗證是有效的。

Diffusion Model for Segmentation

上一部分是對 DDPM 的方差重采樣,不涉及到圖像分割過程。對于分割任務(wù)上的優(yōu)化,ImgX-DiffSeg 可以依據(jù)時間步,使用預(yù)測噪聲和采樣噪聲之間的 L2 損失進(jìn)行訓(xùn)練。此外,ImgX-DiffSeg 計算預(yù)測掩碼和金標(biāo)準(zhǔn)之間定義的特定分割損失,例如 Dice Loss 或 CE Loss。

在訓(xùn)練期間,現(xiàn)有方法通過插值噪聲和金標(biāo)準(zhǔn)對噪聲掩模進(jìn)行采樣,這會導(dǎo)致數(shù)據(jù)信息丟失。為了解決這個問題,模型在上一個時間步中的預(yù)測被回收以取代金標(biāo)準(zhǔn)?;厥盏脑肼曆诖a是使用下面方程計算的。

其中, x0theta 是使用金標(biāo)準(zhǔn)計算的上一個時間步的預(yù)測分割掩碼,xt 和 xt+1 是兩個獨立的采樣噪聲。梯度停止應(yīng)用于 xt+1 以防止通過回收的噪聲掩碼進(jìn)行反向傳播。αt 是超參數(shù)。第一個方程使用先前的預(yù)測和當(dāng)前噪聲計算 xt,而第二個方程使用金標(biāo)準(zhǔn)和下一個噪聲計算 xt+1。

實驗

實驗分別基于 MRI 和 CT 圖像數(shù)據(jù)集, 值得注意的是,ImgX-DiffSeg 在 3D 上的表現(xiàn)是好于 2D 數(shù)據(jù)集的,如下表所示。

109dda3e-f2b6-11ed-90ce-dac502259ad0.png

下圖是非擴(kuò)散分割模型和擴(kuò)散概率模型之間的可視化比較,其中 t 表示時間步,一直反向擴(kuò)散到第一個時間步的效果最好。

10cd07a0-f2b6-11ed-90ce-dac502259ad0.png

請?zhí)砑訄D片描述

下表是四種消融實驗,分別是預(yù)測噪聲推斷分割圖和直接預(yù)測分割圖對比;損失函數(shù)對比;是否回收上一個時間步中預(yù)測的掩碼對比;訓(xùn)練過程的時間步數(shù)量對比。5 個 steps 的效果優(yōu)于 1000 個 steps,說明 Variance Schedule Resampling 是有效果的。

1104e0f8-f2b6-11ed-90ce-dac502259ad0.png

請?zhí)砑訄D片描述

總結(jié)

ImgX-DiffSeg 是第一個用于 3D 圖像多類分割的 DDPM 模型,與現(xiàn)有的基于擴(kuò)散的方法相比,該模型顯著提高了性能,但也沒有優(yōu)于普通的非擴(kuò)散分割模型,還值得進(jìn)一步改進(jìn)。這篇文章的代碼目前已開源,我試了一下,訓(xùn)練的收斂速度真的快,可以作為一個不錯的 benchmark。

參考

https://github.com/mathpluscode/ImgX-DiffSeg

https://arxiv.org/abs/2303.06040

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2843

    瀏覽量

    107202
  • 圖像分割
    +關(guān)注

    關(guān)注

    4

    文章

    182

    瀏覽量

    17953
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3073

    瀏覽量

    48587

原文標(biāo)題:ImgX-DiffSeg:基于 DDPMs 的 3D 醫(yī)學(xué)圖像分割

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    3D圖像的速度控制

    你好! 現(xiàn)在我有個問題想請教大家, 我怎么做一個3D圖像的渦輪扇葉然后通過控制器調(diào)整它的速度然后再3D圖像中開始轉(zhuǎn)并且根據(jù)控制量改變在3D
    發(fā)表于 11-30 23:25

    3D圖像生成算法的原理是什么?

    什么是3D圖形芯片?3D圖像生成算法的原理是什么?
    發(fā)表于 06-04 06:29

    基于MLP的快速醫(yī)學(xué)圖像分割網(wǎng)絡(luò)UNeXt相關(guān)資料分享

    1、基于MLP的快速醫(yī)學(xué)圖像分割網(wǎng)絡(luò)UNeXt  方法概述  之前我們解讀過基于 Transformer 的 U-Net變體,近年來一直是領(lǐng)先的醫(yī)學(xué)
    發(fā)表于 09-23 14:53

    深度學(xué)習(xí)在醫(yī)學(xué)圖像分割與病變識別中的應(yīng)用實戰(zhàn)

    來源:易百納技術(shù)社區(qū) 基于深度學(xué)習(xí)的醫(yī)學(xué)圖像分割與病變識別隨著人工智能技術(shù)的不斷發(fā)展,其在醫(yī)療領(lǐng)域的應(yīng)用越來越受到關(guān)注。其中,基于深度學(xué)習(xí)的醫(yī)學(xué)
    發(fā)表于 09-04 11:11

    3D圖像引擎,3D圖像引擎原理

    3D圖像引擎,3D圖像引擎原理 產(chǎn)生的背景和定義 隨著計算機(jī)軟、硬件突飛猛進(jìn)的發(fā)展,計算機(jī)圖形學(xué)在各個行業(yè)的應(yīng)用也得
    發(fā)表于 03-26 15:54 ?1458次閱讀

    3D視頻目標(biāo)分割與快速跟蹤

    3D視頻目標(biāo)分割與快速跟蹤_朱仲杰
    發(fā)表于 01-07 16:00 ?0次下載

    醫(yī)學(xué)3D打印技術(shù)及其技術(shù)攻關(guān)的介紹

    3D 打印被公認(rèn)為是推進(jìn)第三次工業(yè)革命的技術(shù)之一。盡管它源自工業(yè)制造,但一開始就受到醫(yī)學(xué)界的關(guān)注。我們在上世紀(jì) 90 年代開展個體化骨科植入物 CAD/CAM 技術(shù)研究中及時引入 3D 打印技術(shù)
    發(fā)表于 09-22 15:49 ?5次下載

    基于改進(jìn)CNN的醫(yī)學(xué)圖像分割方法

    為了提高醫(yī)學(xué)圖像分割的精確性和魯棒性,提岀了一種基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的醫(yī)學(xué)圖像分割方法。首先采用
    發(fā)表于 06-03 16:23 ?6次下載

    3D打印技術(shù)在醫(yī)學(xué)中的應(yīng)用

    眾所周知3D打印技術(shù)在醫(yī)學(xué)上面的應(yīng)用是越來越多,也越來越廣了。近日,上海交通大學(xué)醫(yī)學(xué)3D打印創(chuàng)新研究中心日照分中心在市人民醫(yī)院成立,這是日照首個醫(yī)學(xué)
    發(fā)表于 07-22 15:13 ?2780次閱讀

    數(shù)坤科技3D卷積神經(jīng)網(wǎng)絡(luò)模型用于肝臟MR圖像的精準(zhǔn)分割

    該項研究采用了基于多序列的3D卷積神經(jīng)網(wǎng)絡(luò)模型,由數(shù)坤科技自主研發(fā),用于肝臟MR圖像的精準(zhǔn)分割。
    的頭像 發(fā)表于 04-02 16:06 ?3919次閱讀
    數(shù)坤科技<b class='flag-5'>3D</b>卷積神經(jīng)網(wǎng)絡(luò)模型用于肝臟MR<b class='flag-5'>圖像</b>的精準(zhǔn)<b class='flag-5'>分割</b>

    何為3D點云語義分割

    融合標(biāo)注使用的3D標(biāo)注工具仍以3D立體框為主,但在3D點云數(shù)據(jù)以外,還需要使用2D標(biāo)注工具在點云數(shù)據(jù)相對應(yīng)的2D
    的頭像 發(fā)表于 07-21 15:52 ?8435次閱讀

    在NGC上玩轉(zhuǎn)圖像分割!NeurIPS頂會模型、智能標(biāo)注10倍速神器、人像分割SOTA方案、3D醫(yī)療影像分割利器應(yīng)有盡有

    PaddleSeg 近期帶來重大升級,覆蓋最新頂會模型、10 倍提速的智能標(biāo)注工具、實時人像分割 SOTA 方案、全新 3D 醫(yī)療影像分割方案等。 歡迎廣大開發(fā)者使用 NVIDIA 與飛槳聯(lián)合深度
    的頭像 發(fā)表于 11-21 21:05 ?1026次閱讀

    3D UX-Net:超強的醫(yī)學(xué)圖像分割新網(wǎng)絡(luò)

    整體來說,這些模型性能是越來越高,在幾個主流的 3D 數(shù)據(jù)基準(zhǔn)測試中也實現(xiàn)了大大小小的 SOTA,特別是 3D 醫(yī)學(xué)圖像分割這塊。當(dāng)然,時代
    的頭像 發(fā)表于 02-01 15:57 ?2212次閱讀

    基于Diffusion Probabilistic Model的醫(yī)學(xué)圖像分割

    MedSegDiff 在原版 DPM 的基礎(chǔ)上引入了動態(tài)條件編碼,增強 DPM 在醫(yī)學(xué)圖像分割上的分步注意力能力。
    的頭像 發(fā)表于 05-04 18:14 ?3777次閱讀
    基于Diffusion Probabilistic Model的<b class='flag-5'>醫(yī)學(xué)</b><b class='flag-5'>圖像</b><b class='flag-5'>分割</b>

    基于深度學(xué)習(xí)的3D點云實例分割方法

    3D實例分割3DIS)是3D領(lǐng)域深度學(xué)習(xí)的核心問題。給定由點云表示的 3D 場景,我們尋求為每個點分配語義類和唯一的實例標(biāo)簽。
    發(fā)表于 11-13 10:34 ?1962次閱讀
    基于深度學(xué)習(xí)的<b class='flag-5'>3D</b>點云實例<b class='flag-5'>分割</b>方法