0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

輻射場(chǎng)的實(shí)時(shí)密集單眼SLAM簡(jiǎn)析

3D視覺(jué)工坊 ? 來(lái)源:泡泡機(jī)器人SLAM ? 2023-01-30 11:24 ? 次閱讀

摘要

我們提出了一個(gè)新的幾何和光度3D映射管道,用于從單眼圖像中準(zhǔn)確和實(shí)時(shí)地重建場(chǎng)景。為了實(shí)現(xiàn)這一目標(biāo),我們利用了最近在密集單眼SLAM和實(shí)時(shí)分層容積神經(jīng)輻射場(chǎng)方面的進(jìn)展。我們的見(jiàn)解是,密集的單眼SLAM通過(guò)提供準(zhǔn)確的姿勢(shì)估計(jì)和具有相關(guān)不確定性的深度圖,為實(shí)時(shí)適應(yīng)場(chǎng)景的神經(jīng)輻射場(chǎng)提供了正確的信息

通過(guò)我們提出的基于不確定性的深度損失,我們不僅實(shí)現(xiàn)了良好的光度測(cè)量精度,還實(shí)現(xiàn)了巨大的幾何精度。事實(shí)上,我們提出的管道比競(jìng)爭(zhēng)對(duì)手的方法實(shí)現(xiàn)了更好的幾何和光度測(cè)量精度(PSNR提高了179%,L1深度提高了86%),同時(shí)實(shí)時(shí)工作并只使用單眼圖像。

主要貢獻(xiàn)

我們提出了第一個(gè)結(jié)合密集單眼SLAM和分層體積神經(jīng)輻射場(chǎng)優(yōu)點(diǎn)的場(chǎng)景重建管道。

我們的方法從圖像流中建立精確的輻射場(chǎng),不需要姿勢(shì)或深度作為輸入,并且可以實(shí)時(shí)運(yùn)行。

我們?cè)赗eplica數(shù)據(jù)集上實(shí)現(xiàn)了單眼方法的最先進(jìn)性能。

主要方法

ecfcaede-9784-11ed-bfe3-dac502259ad0.png

我們管道的輸入包括連續(xù)的單眼圖像(這里表示為Img 1和Img 2)。從右上角開(kāi)始,我們的架構(gòu)使用Instant-NGP擬合一個(gè)NeRF,我們使用RGB圖像I和深度D對(duì)其進(jìn)行監(jiān)督,其中深度由其邊緣協(xié)方差ΣD加權(quán)。

Rosinol等人[23]的啟發(fā),我們從密集的單眼SLAM計(jì)算這些協(xié)方差。在我們的案例中,我們使用Droid-SLAM。我們?cè)诘?.1節(jié)提供了關(guān)于信息流的更多細(xì)節(jié)。藍(lán)色顯示的是Droid-SLAM的貢獻(xiàn)和信息流,同樣,粉紅色是Rosinol的貢獻(xiàn),而紅色是我們的貢獻(xiàn)。

1. 追蹤

密集SLAM與協(xié)方差 我們使用Droid-SLAM作為我們的跟蹤模塊,它為每個(gè)關(guān)鍵幀提供密集的深度圖和姿勢(shì)。從一連串的圖像開(kāi)始,Droid-SLAM首先計(jì)算出i和j兩幀之間的密集光流pij,使用的架構(gòu)與Raft相似。

Raft的核心是一個(gè)卷積GRU(圖2中的ConvGRU),給定一對(duì)幀之間的相關(guān)性和對(duì)當(dāng)前光流pij的猜測(cè),計(jì)算一個(gè)新的流pij,以及每個(gè)光流測(cè)量的權(quán)重Σpij。

有了這些流量和權(quán)重作為測(cè)量值,DroidSLAM解決了一個(gè)密集束調(diào)整(BA)問(wèn)題,其中三維幾何被參數(shù)化為每個(gè)關(guān)鍵幀的一組反深度圖。這種結(jié)構(gòu)的參數(shù)化導(dǎo)致了解決密集BA問(wèn)題的極其有效的方式,通過(guò)將方程組線性化為我們熟悉的相機(jī)/深度箭頭狀的塊狀稀疏Hessian H∈R (c+p)×(c+p) ,其中c和p是相機(jī)和點(diǎn)的維度,可以被表述為一個(gè)線性最小二乘法問(wèn)題。

從圖中可以看出,為了解決線性最小二乘問(wèn)題,我們用Hessian的Schur補(bǔ)數(shù)來(lái)計(jì)算縮小的相機(jī)矩陣HT,它不依賴于深度,維度小得多,為R c×c。通過(guò)對(duì)HT=LLT的Cholesky因子化,其中L是下三角Cholesky因子,然后通過(guò)前置和后置求解姿勢(shì)T,從而解決相機(jī)姿勢(shì)的小問(wèn)題。

此外,給定姿勢(shì)T和深度D,Droid-SLAM建議計(jì)算誘導(dǎo)光流,并再次將其作為初始猜測(cè)送入ConvGRU網(wǎng)絡(luò),如圖2左側(cè)所示,其中Π和Π-1,是投影和背投函數(shù)。

圖2中的藍(lán)色箭頭顯示了跟蹤循環(huán),并對(duì)應(yīng)于Droid-SLAM。然后,受Rosinol等人的啟發(fā),我們進(jìn)一步計(jì)算密集深度圖和Droid-SLAM的姿勢(shì)的邊際協(xié)方差(圖2的紫色箭頭)。

為此,我們需要利用Hessian的結(jié)構(gòu),我們對(duì)其進(jìn)行塊狀分割如下:

ed23497c-9784-11ed-bfe3-dac502259ad0.png

其中H是Hessian矩陣,b是殘差,C是塊狀相機(jī)矩陣,P是對(duì)應(yīng)于每個(gè)像素每個(gè)關(guān)鍵幀的反深度的對(duì)角矩陣。我們用?ξ表示SE(3)中相機(jī)姿態(tài)的謊言代數(shù)的delta更新,而?d是每個(gè)像素反深度的delta更新。

E是相機(jī)/深度對(duì)角線Hessian的塊矩陣,v和w對(duì)應(yīng)于姿勢(shì)和深度的殘差。從這個(gè)Hessian的塊分割中,我們可以有效地計(jì)算密集深度Σd和姿勢(shì)ΣT的邊際協(xié)方差:

ed2c4eaa-9784-11ed-bfe3-dac502259ad0.png

最后,鑒于跟蹤模塊計(jì)算出的所有信息--姿勢(shì)、深度、它們各自的邊際協(xié)方差以及輸入的RGB圖像--我們可以優(yōu)化我們的輻射場(chǎng)參數(shù),并同時(shí)完善相機(jī)的姿勢(shì)。

ed3b0878-9784-11ed-bfe3-dac502259ad0.png

2. 建圖

鑒于每個(gè)關(guān)鍵幀的密集深度圖,有可能對(duì)我們的神經(jīng)體積進(jìn)行深度監(jiān)督。不幸的是,由于其密度,深度圖是非常嘈雜的,因?yàn)榧词故菬o(wú)紋理的區(qū)域也被賦予了一個(gè)深度值。圖3顯示,密集的單眼SLAM所產(chǎn)生的點(diǎn)云是特別嘈雜的,并且包含大的離群值(圖3的頂部圖像)。

根據(jù)這些深度圖監(jiān)督我們的輻射度場(chǎng)會(huì)導(dǎo)致有偏見(jiàn)的重建。 Rosinol等人的研究表明,深度估計(jì)的不確定性是一個(gè)很好的信號(hào),可以為經(jīng)典的TSDF體積融合的深度值加權(quán)。受這些結(jié)果的啟發(fā),我們使用深度不確定性估計(jì)來(lái)加權(quán)深度損失,我們用它來(lái)監(jiān)督我們的神經(jīng)體積。

圖1顯示了輸入的RGB圖像,其相應(yīng)的深度圖的不確定性,所產(chǎn)生的點(diǎn)云(在用σd≤1.0對(duì)其不確定性進(jìn)行閾值化以實(shí)現(xiàn)可視化),以及我們使用不確定性加權(quán)的深度損失時(shí)的結(jié)果。鑒于不確定性感知的損失,我們將我們的映射損失表述為:

ed8e320a-9784-11ed-bfe3-dac502259ad0.png

我們對(duì)姿勢(shì)T和神經(jīng)參數(shù)Θ進(jìn)行最小化,給定超參數(shù)λD來(lái)平衡深度和顏色監(jiān)督(我們將λD設(shè)置為1.0)。特別是,我們的深度損失是由以下公式給出的。

ed963086-9784-11ed-bfe3-dac502259ad0.png

其中,D*是渲染的深度,D、ΣD是由跟蹤模塊估計(jì)的密集深度和不確定性。我們將深度D*渲染為預(yù)期的射線終止距離。每個(gè)像素的深度都是通過(guò)沿著像素的射線取樣的三維位置來(lái)計(jì)算的,在樣本i處評(píng)估密度σi,并將得到的密度進(jìn)行alpha合成,與標(biāo)準(zhǔn)的體積渲染類似:

ed9da7ee-9784-11ed-bfe3-dac502259ad0.png

顏色的渲染損失如下:

eda67cac-9784-11ed-bfe3-dac502259ad0.png

3. 架構(gòu)

我們的管道由一個(gè)跟蹤線程和一個(gè)映射線程組成,兩者都是實(shí)時(shí)和并行運(yùn)行的。追蹤線程不斷地將關(guān)鍵幀活動(dòng)窗口的BA重投影誤差降到最低。

映射線程總是優(yōu)化從跟蹤線程收到的所有關(guān)鍵幀,并且沒(méi)有一個(gè)有效幀的滑動(dòng)窗口。這些線程之間的唯一通信發(fā)生在追蹤管道生成新關(guān)鍵幀時(shí)。

在每一個(gè)新的關(guān)鍵幀上,跟蹤線程將當(dāng)前關(guān)鍵幀的姿勢(shì)與它們各自的圖像和估計(jì)的深度圖,以及深度的邊際協(xié)方差,發(fā)送到映射線程。

只有跟蹤線程的滑動(dòng)優(yōu)化窗口中當(dāng)前可用的信息被發(fā)送到映射線程。跟蹤線程的有效滑動(dòng)窗口最多包括8個(gè)關(guān)鍵幀。

只要前一個(gè)關(guān)鍵幀和當(dāng)前幀之間的平均光流高于一個(gè)閾值(在我們的例子中是2.5像素),跟蹤線程就會(huì)生成一個(gè)新的關(guān)鍵幀。最后,映射線程還負(fù)責(zé)渲染,以實(shí)現(xiàn)重建的交互式可視化。

主要結(jié)果

edb16194-9784-11ed-bfe3-dac502259ad0.pngedbf6e42-9784-11ed-bfe3-dac502259ad0.png

edcba6ee-9784-11ed-bfe3-dac502259ad0.png







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Gru
    Gru
    +關(guān)注

    關(guān)注

    0

    文章

    12

    瀏覽量

    7471
  • SLAM
    +關(guān)注

    關(guān)注

    23

    文章

    411

    瀏覽量

    31738
  • NGP
    NGP
    +關(guān)注

    關(guān)注

    0

    文章

    12

    瀏覽量

    6665

原文標(biāo)題:NeRF-SLAM:實(shí)時(shí)密集單眼SLAM 輻射場(chǎng)的實(shí)時(shí)密集單眼SLAM

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    新能源電池產(chǎn)業(yè)鏈及投資機(jī)會(huì)簡(jiǎn)-磷酸亞鐵鋰

    新能源電池產(chǎn)業(yè)鏈及投資機(jī)會(huì)簡(jiǎn)-磷酸亞鐵鋰  一、前言
    發(fā)表于 12-25 09:34 ?967次閱讀

    【設(shè)計(jì)技巧】rtos的核心原理簡(jiǎn)

    rtos的核心原理簡(jiǎn)rtos全稱real-time operating system(實(shí)時(shí)操作系統(tǒng)),我來(lái)簡(jiǎn)單分析下:我們都知道,c語(yǔ)句中調(diào)用一個(gè)函數(shù)后,該函數(shù)的返回地址都是放在堆棧中的(準(zhǔn)確
    發(fā)表于 07-23 08:00

    計(jì)算密集型的程序簡(jiǎn)

    人工智能學(xué)習(xí)1. 人工智能應(yīng)用場(chǎng)景網(wǎng)絡(luò)安全、電子商務(wù)、計(jì)算模擬、社交網(wǎng)絡(luò) … …2. 人工智能必備三要素?cái)?shù)據(jù),算法,計(jì)算力計(jì)算力之CPU、GPU對(duì)比:CPU主要適合I\O密集型的任務(wù)GPU主要適合
    發(fā)表于 09-07 06:14

    輻射劑量場(chǎng)實(shí)時(shí)成像測(cè)量系統(tǒng)的研究

    輻射劑量場(chǎng)實(shí)時(shí)成像測(cè)量系統(tǒng)的研究 本文利用閃爍體的吸收發(fā)光特點(diǎn),并結(jié)合計(jì)算機(jī)斷層掃描技術(shù),提出了對(duì)核輻射劑量場(chǎng)分布進(jìn)行
    發(fā)表于 10-21 08:38 ?819次閱讀

    電動(dòng)汽車用鋰離子電池技術(shù)的國(guó)內(nèi)外進(jìn)展簡(jiǎn)

    電動(dòng)汽車用鋰離子電池技術(shù)的國(guó)內(nèi)外進(jìn)展簡(jiǎn)
    發(fā)表于 11-10 13:53 ?772次閱讀

    PCB線路板電鍍銅工藝簡(jiǎn)

    PCB線路板電鍍銅工藝簡(jiǎn)   一.電鍍工藝的分類:   酸性光亮銅電鍍電鍍鎳/金電鍍錫   二.工藝流程:
    發(fā)表于 11-17 14:01 ?3967次閱讀

    EPON技術(shù)簡(jiǎn)

    EPON技術(shù)簡(jiǎn) EPON是一個(gè)新技術(shù),用于保證提供一個(gè)高品質(zhì)與高帶寬利用率的應(yīng)用。   EPON在日本、韓國(guó)、中國(guó)大陸、中國(guó)臺(tái)灣及其它以以太網(wǎng)絡(luò)為基礎(chǔ)的地區(qū)都
    發(fā)表于 01-22 10:43 ?839次閱讀

    鼠標(biāo)HID例程(中)簡(jiǎn)

    鼠標(biāo) HID 例程簡(jiǎn) 緊接《鼠標(biāo) HID 例程簡(jiǎn)(上)》一文,繼續(xù)向大家介紹鼠 標(biāo) HID 例程的未完的內(nèi)容。
    發(fā)表于 07-26 15:18 ?0次下載

    5G AAU 功放控制和監(jiān)測(cè)模塊簡(jiǎn)

    5G AAU 功放控制和監(jiān)測(cè)模塊簡(jiǎn)
    發(fā)表于 10-28 12:00 ?2次下載
    5G AAU 功放控制和監(jiān)測(cè)模塊<b class='flag-5'>簡(jiǎn)</b><b class='flag-5'>析</b>

    用于SLAM的神經(jīng)隱含可擴(kuò)展編碼

    我們提出了NICE-SLAM,一個(gè)密集的RGB-D SLAM系統(tǒng),它具有實(shí)時(shí)性、可擴(kuò)展性、預(yù)測(cè)性和對(duì)各種挑戰(zhàn)性場(chǎng)景的魯棒性。
    的頭像 發(fā)表于 01-30 11:19 ?668次閱讀

    密集單目SLAM的概率體積融合概述

    我們提出了一種利用深度密集單目 SLAM 和快速不確定性傳播從圖像重建 3D 場(chǎng)景的新方法。所提出的方法能夠密集、準(zhǔn)確、實(shí)時(shí)地 3D 重建場(chǎng)景,同時(shí)對(duì)來(lái)自
    的頭像 發(fā)表于 01-30 11:34 ?623次閱讀

    OV2SLAM(高速視覺(jué)slam)簡(jiǎn)

    視覺(jué)里程計(jì)最近幾年越來(lái)越受到學(xué)術(shù)界以及工業(yè)界的認(rèn)可,以O(shè)RB和VINS為代表的視覺(jué)SLAM已經(jīng)可以滿足絕大多數(shù)場(chǎng)景,而OV2SLAM在其他VSLAM中脫穎而出,其實(shí)時(shí)性以及具體的回環(huán)性能在測(cè)試中都得到了認(rèn)可。
    的頭像 發(fā)表于 03-21 17:16 ?1447次閱讀

    用于神經(jīng)場(chǎng)SLAM的矢量化對(duì)象建圖

    vMAP 是一種基于神經(jīng)場(chǎng)的對(duì)象級(jí)密集 SLAM 系統(tǒng),可根據(jù) RGB-D 輸入流實(shí)時(shí)自動(dòng)構(gòu)建對(duì)象級(jí)場(chǎng)景模型。
    的頭像 發(fā)表于 06-15 09:29 ?718次閱讀
    用于神經(jīng)<b class='flag-5'>場(chǎng)</b><b class='flag-5'>SLAM</b>的矢量化對(duì)象建圖

    AFE8092幀同步特性簡(jiǎn)

    AFE8092幀同步特性簡(jiǎn)
    的頭像 發(fā)表于 08-24 13:37 ?587次閱讀
    AFE8092幀同步特性<b class='flag-5'>簡(jiǎn)</b><b class='flag-5'>析</b>

    什么是SLAM?基于3D高斯輻射場(chǎng)SLAM優(yōu)勢(shì)分析

    基于NeRF的SLAM算法采用全局地圖和圖像重建損失函數(shù),通過(guò)可微分渲染捕獲稠密的光度信息,具有高保真度。
    的頭像 發(fā)表于 04-01 12:44 ?603次閱讀