0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

iNeRF對(duì)RGB圖像進(jìn)行類別級(jí)別的物體姿態(tài)估計(jì)

電子工程師 ? 來(lái)源:IROS 2021 ? 作者:Lin Yen-Chen, Pete Fl ? 2022-08-10 11:37 ? 次閱讀

作者:Lin Yen-Chen, Pete Florence, Jonathan T. Barron, Alberto Rodriguez, Phillip Isola, Tsung-Yi Lin

摘要

我們提出了iNeRF,一個(gè)通過(guò) “反轉(zhuǎn) ”神經(jīng)輻射場(chǎng)(NeRF)來(lái)進(jìn)行無(wú)網(wǎng)格姿勢(shì)估計(jì)的框架。NeRFs已經(jīng)被證明對(duì)合成真實(shí)世界場(chǎng)景或物體的逼真的新視圖非常有效。在這項(xiàng)工作中,我們研究了是否可以通過(guò)NeRF來(lái)應(yīng)用無(wú)網(wǎng)格、純RGB的6DoF姿態(tài)估計(jì)的分析合成法:給定一個(gè)圖像,找到攝像機(jī)相對(duì)于三維物體或場(chǎng)景的平移和旋轉(zhuǎn)。我們的方法假定在訓(xùn)練或測(cè)試期間沒(méi)有物體網(wǎng)格模型可用。從最初的姿勢(shì)估計(jì)開(kāi)始,我們使用梯度下降法來(lái)最小化從NeRF渲染的像素和觀察到的圖像中的像素之間的殘差。在我們的實(shí)驗(yàn)中,我們首先研究:1)如何在iNeRF的姿勢(shì)精化過(guò)程中對(duì)射線進(jìn)行取樣以收集信息梯度;2)不同批次的射線如何影響合成數(shù)據(jù)集上的iNeRF。然后我們表明,對(duì)于來(lái)自LLFF數(shù)據(jù)集的復(fù)雜的真實(shí)世界場(chǎng)景,iNeRF可以通過(guò)估計(jì)新的圖像的相機(jī)姿態(tài)和使用這些圖像作為NeRF的額外訓(xùn)練數(shù)據(jù)來(lái)改善NeRF。最后,我們展示了iNeRF可以通過(guò)反轉(zhuǎn)從單一視圖推斷出的NeRF模型,對(duì)RGB圖像進(jìn)行類別級(jí)別的物體姿態(tài)估計(jì),包括訓(xùn)練期間未見(jiàn)的物體實(shí)例。

主要貢獻(xiàn)

總而言之,我們的主要貢獻(xiàn)如下。

(i) 我們表明,iNeRF可以使用NeRF模型來(lái)估計(jì)具有復(fù)雜幾何形狀的場(chǎng)景和物體的6DoF姿態(tài),而不需要使用3D網(wǎng)格模型或深度感應(yīng)--只使用RGB圖像作為輸入。

(ii) 我們對(duì)射線采樣和梯度優(yōu)化的批量大小進(jìn)行了深入研究,以確定iNeRF的穩(wěn)健性和局限性。

(iii) 我們表明,iNeRF可以通過(guò)預(yù)測(cè)更多圖像的相機(jī)姿態(tài)來(lái)改善NeRF,這些圖像可以被添加到NeRF的訓(xùn)練集中。

(iv) 我們展示了對(duì)未見(jiàn)過(guò)的物體的類別級(jí)姿勢(shì)估計(jì)結(jié)果,包括一個(gè)真實(shí)世界的演示。

主要方法

9eed7b3a-17e4-11ed-ba43-dac502259ad0.png

我們現(xiàn)在提出了iNeRF,一個(gè)通過(guò) “反轉(zhuǎn) ”訓(xùn)練過(guò)的NeRF來(lái)執(zhí)行6DoF姿態(tài)估計(jì)的框架。讓我們假設(shè)一個(gè)場(chǎng)景或物體的NeRF的參數(shù)化Θ已經(jīng)被恢復(fù),并且相機(jī)的本征是已知的,但是圖像觀測(cè)I的相機(jī)位姿T還沒(méi)有確定。與NeRF不同的是,NeRF使用一組給定的相機(jī)位姿和圖像觀測(cè)值來(lái)優(yōu)化Θ,而我們要解決的是在給定權(quán)重Θ和圖像I的情況下恢復(fù)相機(jī)姿勢(shì)T的逆問(wèn)題。

9f0ca69a-17e4-11ed-ba43-dac502259ad0.png

為了解決這個(gè)優(yōu)化問(wèn)題,我們利用NeRF的能力,在NeRF模型的坐標(biāo)框架中采取一些估計(jì)的相機(jī)姿勢(shì)T∈SE(3),并渲染相應(yīng)的圖像觀察。然后,我們可以使用與NeRF相同的光度損失函數(shù)L,但我們不是通過(guò)反向傳播來(lái)更新MLP的權(quán)重Θ,而是更新姿勢(shì)T以最小化L。雖然倒置NeRF來(lái)進(jìn)行姿勢(shì)估計(jì)的概念可以簡(jiǎn)明扼要地說(shuō)明,但這樣的問(wèn)題是否可以實(shí)際解決到一個(gè)有用的程度并不明顯。損失函數(shù)L在SE(3)的6DoF空間上是非凸的,而且全圖像的NeRF渲染在計(jì)算上很昂貴,特別是在優(yōu)化程序的循環(huán)中使用。

1.基于梯度的SE(3)優(yōu)化

將Θ定義為經(jīng)過(guò)訓(xùn)練的固定的NeRF的參數(shù),先驗(yàn)Ti是當(dāng)前優(yōu)化步驟i的估計(jì)相機(jī)姿勢(shì),I是觀察到的圖像,L(Ti | I, Θ)是用于訓(xùn)練NeRF中的精細(xì)模型的損失。我們采用基于梯度的優(yōu)化來(lái)解決上面方程中定義的先驗(yàn)T。為了確保在基于梯度的優(yōu)化過(guò)程中,估計(jì)的姿勢(shì)先驗(yàn)Ti繼續(xù)位于SE(3)流形上,我們用指數(shù)坐標(biāo)為先驗(yàn)Ti設(shè)置參數(shù)。給定一個(gè)從相機(jī)幀到模型幀的初始姿勢(shì)估計(jì)值先驗(yàn)T0∈SE(3),我們將先驗(yàn)Ti表示為:

9f22f634-17e4-11ed-ba43-dac502259ad0.png

我們通過(guò)MLP對(duì)損失函數(shù)進(jìn)行迭代,得到梯度?SθL(e [S]θT0 |I, Θ),用于更新估計(jì)的相對(duì)變換。我們使用Adam優(yōu)化器,其學(xué)習(xí)率為指數(shù)衰減。對(duì)于每個(gè)觀察到的圖像,我們將Sθ初始化到0附近,其中每個(gè)元素都是從零均值正態(tài)分布N(0,σ=10-6)中隨機(jī)抽取的。在實(shí)踐中,用e[S]θ T0進(jìn)行參數(shù)化,如果利用T0e[S]θ會(huì)導(dǎo)致旋轉(zhuǎn)中心在初始估計(jì)的中心,而不是在攝像機(jī)幀的中心。這就減輕了優(yōu)化過(guò)程中旋轉(zhuǎn)和平移之間的耦合。

2.光線采樣

這里討論了三種采樣方法

隨機(jī)采樣:一個(gè)直觀的策略是在圖像平面上隨機(jī)抽取M個(gè)像素點(diǎn){p i x , piy}M i=0,并計(jì)算其對(duì)應(yīng)的射線。事實(shí)上,NeRF本身在優(yōu)化Θ時(shí)就使用了這種策略(假設(shè)不使用圖像批處理)。我們發(fā)現(xiàn),當(dāng)射線的批處理量b較小時(shí),這種隨機(jī)采樣策略的性能是無(wú)效的。大多數(shù)隨機(jī)采樣的像素對(duì)應(yīng)于圖像中平坦的、無(wú)紋理的區(qū)域,這些區(qū)域在姿勢(shì)方面提供的信息很少(這與著名的光圈問(wèn)題一致)。

興趣特征點(diǎn)采樣:我們提出了興趣點(diǎn)抽樣來(lái)指導(dǎo)iNeRF的優(yōu)化,我們首先采用興趣點(diǎn)檢測(cè)器來(lái)定位觀察圖像中的一組候選像素位置。然后,我們從檢測(cè)到的興趣點(diǎn)中抽出M個(gè)點(diǎn),如果檢測(cè)到的興趣點(diǎn)不夠多,就回落到隨機(jī)抽樣。雖然這種策略使優(yōu)化收斂得更快,因?yàn)橐肓溯^少的隨機(jī)性,但我們發(fā)現(xiàn)它很容易出現(xiàn)局部最小值,因?yàn)樗豢紤]觀察圖像上的興趣點(diǎn),而不是來(lái)自觀察圖像和渲染圖像的興趣點(diǎn)。然而,獲得渲染圖像中的興趣點(diǎn)需要O(HW n)個(gè)前向MLP通道,因此在優(yōu)化中使用的成本過(guò)高。

興趣特征區(qū)域采樣:為了防止只從興趣點(diǎn)取樣造成的局部最小值,我們建議使用 “興趣區(qū)域 ”取樣,這是一種放寬興趣點(diǎn)取樣的策略,從以興趣點(diǎn)為中心的擴(kuò)張掩模中取樣。在興趣點(diǎn)檢測(cè)器對(duì)興趣點(diǎn)進(jìn)行定位后,我們應(yīng)用5×5的形態(tài)學(xué)擴(kuò)張進(jìn)行I次迭代以擴(kuò)大采樣區(qū)域。在實(shí)踐中,我們發(fā)現(xiàn)當(dāng)射線的批量大小較小時(shí),這樣做可以加快優(yōu)化速度。請(qǐng)注意,如果I被設(shè)置為一個(gè)大數(shù)字,興趣區(qū)域采樣就會(huì)退回到隨機(jī)采樣。

3.用iNeRF自我監(jiān)督學(xué)習(xí)NeRF

除了使用iNeRF對(duì)訓(xùn)練好的NeRF進(jìn)行姿態(tài)估計(jì)外,我們還探索使用估計(jì)的姿態(tài)來(lái)反饋到訓(xùn)練NeRF表示中。具體來(lái)說(shuō),我們首先根據(jù)一組已知相機(jī)姿勢(shì)的訓(xùn)練RGB圖像9f39b536-17e4-11ed-ba43-dac502259ad0.png來(lái)訓(xùn)練NeRF,產(chǎn)生NeRF參數(shù)Θtrain。然后,我們使用iNeRF來(lái)接收額外的未知姿勢(shì)的觀察圖像{Ii}。Ntest i=1,并求解估計(jì)姿勢(shì)先驗(yàn)Ti。Ntest i=1。鑒于這些估計(jì)的姿勢(shì),我們可以使用自我監(jiān)督的姿勢(shì)標(biāo)簽,將9f428800-17e4-11ed-ba43-dac502259ad0.png加入訓(xùn)練集。這個(gè)過(guò)程允許NeRF在半監(jiān)督的情況下被訓(xùn)練。

主要結(jié)果

9f58ce1c-17e4-11ed-ba43-dac502259ad0.png

9f7b4bae-17e4-11ed-ba43-dac502259ad0.png

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 攝像機(jī)
    +關(guān)注

    關(guān)注

    3

    文章

    1564

    瀏覽量

    59830
  • 輻射
    +關(guān)注

    關(guān)注

    1

    文章

    590

    瀏覽量

    36247

原文標(biāo)題:iNeRF:用于姿態(tài)估計(jì)的反向神經(jīng)輻射場(chǎng)(IROS 2021)

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于PoseDiffusion相機(jī)姿態(tài)估計(jì)方法

    的約束結(jié)合在一起,因此能夠在稀疏視圖和密集視圖狀態(tài)下以高精度重建相機(jī)位置,他們?cè)诟怕蕯U(kuò)散框架內(nèi)公式化了SfM問(wèn)題,對(duì)給定輸入圖像的相機(jī)姿態(tài)的條件分布進(jìn)行建模,用Diffusion模型來(lái)輔助進(jìn)行
    的頭像 發(fā)表于 07-23 15:22 ?1205次閱讀
    基于PoseDiffusion相機(jī)<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>方法

    納米位移計(jì)真的可以測(cè)到納米級(jí)別的物體的位移?

    納米位移計(jì)真的可以測(cè)到納米級(jí)別的物體的位移?
    發(fā)表于 07-23 10:36

    源碼交流=圖像處理 識(shí)別圓形物體

    本帖最后由 乂統(tǒng)天下 于 2020-4-20 12:59 編輯 新手學(xué)習(xí),多多關(guān)照,互相交流,共同進(jìn)步^-^【實(shí)現(xiàn)功能】識(shí)別圖像中的圓形物體[Tested]【處理效果】NO.1:原圖NO.2
    發(fā)表于 04-02 10:43

    光照變化情況下的靜態(tài)頭部姿態(tài)估計(jì)

    針對(duì)圖像光照的變化對(duì)靜態(tài)頭部姿態(tài)估計(jì)的影響,該文提出一種基于有向梯度直方圖和主成分分析的姿態(tài)特征,并利用SVM分類器進(jìn)行分類。該算法分別在C
    發(fā)表于 04-22 09:34 ?28次下載

    不同類別的電池是如何回收的?

    不同類別的電池是如何回收的? 電池為我們的汽車、可移動(dòng)電子設(shè)備及每天使用的物體提供電力。我們甚至可以用植物來(lái)制造電池。在這個(gè)越來(lái)越機(jī)動(dòng)化的世界上,電
    發(fā)表于 11-04 16:22 ?796次閱讀

    基于RGB-D圖像物體識(shí)別方法

    針對(duì)傳統(tǒng)的顏色一深度(RGB-D)圖像物體識(shí)別的方法所存在的圖像特征學(xué)習(xí)不全面、特征編碼魯棒性不夠等問(wèn)題,提出了基于核描述子局部約束線性編碼
    發(fā)表于 12-07 10:22 ?1次下載
    基于<b class='flag-5'>RGB</b>-D<b class='flag-5'>圖像</b><b class='flag-5'>物體</b>識(shí)別方法

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)方法

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)方法通過(guò)構(gòu)建特定的神經(jīng)網(wǎng)絡(luò)架構(gòu),將提取的特征信息根據(jù)相應(yīng)的特征融合方法進(jìn)行信息關(guān)聯(lián)處理,最終獲得人體姿態(tài)估計(jì)結(jié)
    發(fā)表于 03-22 15:51 ?5次下載
    基于深度學(xué)習(xí)的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>方法

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)算法

    近年來(lái)人體姿態(tài)估計(jì)作為計(jì)算機(jī)視覺(jué)領(lǐng)域的熱點(diǎn),在視頻監(jiān)控、人機(jī)交互、智慧校園等領(lǐng)域具有廣泛的應(yīng)用前景。隨著神經(jīng)網(wǎng)絡(luò)的快速發(fā)展,采用深度學(xué)習(xí)方法進(jìn)行二維人體姿態(tài)
    發(fā)表于 04-27 16:16 ?7次下載
    基于深度學(xué)習(xí)的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>算法

    基于視點(diǎn)與姿態(tài)估計(jì)的視頻監(jiān)控行人再識(shí)別

    行人再識(shí)別是視頻監(jiān)控中一項(xiàng)極具挑戰(zhàn)性的仼務(wù)。圖像中的遮擋、光照、姿態(tài)、視角等因素,會(huì)對(duì)行人再識(shí)別的準(zhǔn)確率造成極大影響。為了提高行人再識(shí)別的準(zhǔn)確率,提出一種融合視點(diǎn)機(jī)制與
    發(fā)表于 05-28 16:41 ?5次下載

    基于OnePose的無(wú)CAD模型的物體姿態(tài)估計(jì)

    基于CAD模型的物體姿態(tài)估計(jì):目前最先進(jìn)的物體6DoF姿態(tài)估計(jì)方法可以大致分為回歸和關(guān)鍵點(diǎn)技術(shù)。
    的頭像 發(fā)表于 08-10 11:42 ?1480次閱讀

    一種基于去遮擋和移除的3D交互手姿態(tài)估計(jì)框架

    與被充分研究的單手姿態(tài)估計(jì)任務(wù)不同,交互手3D姿態(tài)估計(jì)是近兩年來(lái)剛興起的學(xué)術(shù)方向?,F(xiàn)存的工作會(huì)直接同時(shí)預(yù)測(cè)交互手的左右兩手的姿態(tài),而我們則另
    的頭像 發(fā)表于 09-14 16:30 ?882次閱讀

    無(wú)需實(shí)例或類級(jí)別3D模型的對(duì)新穎物體的6D姿態(tài)追蹤

    跟蹤RGBD視頻中物體的6D姿態(tài)對(duì)機(jī)器人操作很重要。然而,大多數(shù)先前的工作通常假設(shè)目標(biāo)對(duì)象的CAD 模型,至少類別級(jí)別,可用于離線訓(xùn)練或在線測(cè)試階段模板匹配。
    的頭像 發(fā)表于 01-12 17:23 ?1851次閱讀

    基于飛控的姿態(tài)估計(jì)算法作用及原理

    ? 姿態(tài)估計(jì)的作用? 姿態(tài)估計(jì)是飛控算法的一個(gè)基礎(chǔ)部分,而且十分重要。為了完成飛行器平穩(wěn)的姿態(tài)控制,首先需要精準(zhǔn)的
    發(fā)表于 11-13 11:00 ?847次閱讀
    基于飛控的<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>算法作用及原理

    圖像增強(qiáng)三大類別介紹

    圖像增強(qiáng)是圖像模式識(shí)別中非常重要的圖像預(yù)處理過(guò)程。圖像增強(qiáng)的目的是通過(guò)對(duì)圖像中的信息進(jìn)行處理,使
    的頭像 發(fā)表于 11-14 14:34 ?1324次閱讀

    從單張圖像中揭示全局幾何信息:實(shí)現(xiàn)高效視覺(jué)定位的新途徑

    我們提出了一種新穎的方法,它可以從單個(gè) RGB 圖像進(jìn)行全局 6 自由度姿態(tài)估計(jì)。我們的方法與大多數(shù)現(xiàn)有的
    的頭像 發(fā)表于 01-08 14:58 ?498次閱讀
    從單張<b class='flag-5'>圖像</b>中揭示全局幾何信息:實(shí)現(xiàn)高效視覺(jué)定位的新途徑