摘要
我們提出了一個(gè)新的幾何和光度3D映射管道,用于從單眼圖像中準(zhǔn)確和實(shí)時(shí)地重建場(chǎng)景。為了實(shí)現(xiàn)這一目標(biāo),我們利用了最近在密集單眼SLAM和實(shí)時(shí)分層容積神經(jīng)輻射場(chǎng)方面的進(jìn)展。我們的見(jiàn)解是,密集的單眼SLAM通過(guò)提供準(zhǔn)確的姿勢(shì)估計(jì)和具有相關(guān)不確定性的深度圖,為實(shí)時(shí)適應(yīng)場(chǎng)景的神經(jīng)輻射場(chǎng)提供了正確的信息。
通過(guò)我們提出的基于不確定性的深度損失,我們不僅實(shí)現(xiàn)了良好的光度測(cè)量精度,還實(shí)現(xiàn)了巨大的幾何精度。事實(shí)上,我們提出的管道比競(jìng)爭(zhēng)對(duì)手的方法實(shí)現(xiàn)了更好的幾何和光度測(cè)量精度(PSNR提高了179%,L1深度提高了86%),同時(shí)實(shí)時(shí)工作并只使用單眼圖像。
主要貢獻(xiàn)
我們提出了第一個(gè)結(jié)合密集單眼SLAM和分層體積神經(jīng)輻射場(chǎng)優(yōu)點(diǎn)的場(chǎng)景重建管道。
我們的方法從圖像流中建立精確的輻射場(chǎng),不需要姿勢(shì)或深度作為輸入,并且可以實(shí)時(shí)運(yùn)行。
我們?cè)赗eplica數(shù)據(jù)集上實(shí)現(xiàn)了單眼方法的最先進(jìn)性能。
主要方法
我們管道的輸入包括連續(xù)的單眼圖像(這里表示為Img 1和Img 2)。從右上角開(kāi)始,我們的架構(gòu)使用Instant-NGP擬合一個(gè)NeRF,我們使用RGB圖像I和深度D對(duì)其進(jìn)行監(jiān)督,其中深度由其邊緣協(xié)方差ΣD加權(quán)。
受Rosinol等人[23]的啟發(fā),我們從密集的單眼SLAM計(jì)算這些協(xié)方差。在我們的案例中,我們使用Droid-SLAM。我們?cè)诘?.1節(jié)提供了關(guān)于信息流的更多細(xì)節(jié)。藍(lán)色顯示的是Droid-SLAM的貢獻(xiàn)和信息流,同樣,粉紅色是Rosinol的貢獻(xiàn),而紅色是我們的貢獻(xiàn)。
1. 追蹤
密集SLAM與協(xié)方差 我們使用Droid-SLAM作為我們的跟蹤模塊,它為每個(gè)關(guān)鍵幀提供密集的深度圖和姿勢(shì)。從一連串的圖像開(kāi)始,Droid-SLAM首先計(jì)算出i和j兩幀之間的密集光流pij,使用的架構(gòu)與Raft相似。
Raft的核心是一個(gè)卷積GRU(圖2中的ConvGRU),給定一對(duì)幀之間的相關(guān)性和對(duì)當(dāng)前光流pij的猜測(cè),計(jì)算一個(gè)新的流pij,以及每個(gè)光流測(cè)量的權(quán)重Σpij。
有了這些流量和權(quán)重作為測(cè)量值,DroidSLAM解決了一個(gè)密集束調(diào)整(BA)問(wèn)題,其中三維幾何被參數(shù)化為每個(gè)關(guān)鍵幀的一組反深度圖。這種結(jié)構(gòu)的參數(shù)化導(dǎo)致了解決密集BA問(wèn)題的極其有效的方式,通過(guò)將方程組線性化為我們熟悉的相機(jī)/深度箭頭狀的塊狀稀疏Hessian H∈R (c+p)×(c+p) ,其中c和p是相機(jī)和點(diǎn)的維度,可以被表述為一個(gè)線性最小二乘法問(wèn)題。
從圖中可以看出,為了解決線性最小二乘問(wèn)題,我們用Hessian的Schur補(bǔ)數(shù)來(lái)計(jì)算縮小的相機(jī)矩陣HT,它不依賴于深度,維度小得多,為R c×c。通過(guò)對(duì)HT=LLT的Cholesky因子化,其中L是下三角Cholesky因子,然后通過(guò)前置和后置求解姿勢(shì)T,從而解決相機(jī)姿勢(shì)的小問(wèn)題。
此外,給定姿勢(shì)T和深度D,Droid-SLAM建議計(jì)算誘導(dǎo)光流,并再次將其作為初始猜測(cè)送入ConvGRU網(wǎng)絡(luò),如圖2左側(cè)所示,其中Π和Π-1,是投影和背投函數(shù)。
圖2中的藍(lán)色箭頭顯示了跟蹤循環(huán),并對(duì)應(yīng)于Droid-SLAM。然后,受Rosinol等人的啟發(fā),我們進(jìn)一步計(jì)算密集深度圖和Droid-SLAM的姿勢(shì)的邊際協(xié)方差(圖2的紫色箭頭)。
為此,我們需要利用Hessian的結(jié)構(gòu),我們對(duì)其進(jìn)行塊狀分割如下:
其中H是Hessian矩陣,b是殘差,C是塊狀相機(jī)矩陣,P是對(duì)應(yīng)于每個(gè)像素每個(gè)關(guān)鍵幀的反深度的對(duì)角矩陣。我們用?ξ表示SE(3)中相機(jī)姿態(tài)的謊言代數(shù)的delta更新,而?d是每個(gè)像素反深度的delta更新。
E是相機(jī)/深度對(duì)角線Hessian的塊矩陣,v和w對(duì)應(yīng)于姿勢(shì)和深度的殘差。從這個(gè)Hessian的塊分割中,我們可以有效地計(jì)算密集深度Σd和姿勢(shì)ΣT的邊際協(xié)方差:
最后,鑒于跟蹤模塊計(jì)算出的所有信息--姿勢(shì)、深度、它們各自的邊際協(xié)方差以及輸入的RGB圖像--我們可以優(yōu)化我們的輻射場(chǎng)參數(shù),并同時(shí)完善相機(jī)的姿勢(shì)。
2. 建圖
鑒于每個(gè)關(guān)鍵幀的密集深度圖,有可能對(duì)我們的神經(jīng)體積進(jìn)行深度監(jiān)督。不幸的是,由于其密度,深度圖是非常嘈雜的,因?yàn)榧词故菬o(wú)紋理的區(qū)域也被賦予了一個(gè)深度值。圖3顯示,密集的單眼SLAM所產(chǎn)生的點(diǎn)云是特別嘈雜的,并且包含大的離群值(圖3的頂部圖像)。
根據(jù)這些深度圖監(jiān)督我們的輻射度場(chǎng)會(huì)導(dǎo)致有偏見(jiàn)的重建。 Rosinol等人的研究表明,深度估計(jì)的不確定性是一個(gè)很好的信號(hào),可以為經(jīng)典的TSDF體積融合的深度值加權(quán)。受這些結(jié)果的啟發(fā),我們使用深度不確定性估計(jì)來(lái)加權(quán)深度損失,我們用它來(lái)監(jiān)督我們的神經(jīng)體積。
圖1顯示了輸入的RGB圖像,其相應(yīng)的深度圖的不確定性,所產(chǎn)生的點(diǎn)云(在用σd≤1.0對(duì)其不確定性進(jìn)行閾值化以實(shí)現(xiàn)可視化),以及我們使用不確定性加權(quán)的深度損失時(shí)的結(jié)果。鑒于不確定性感知的損失,我們將我們的映射損失表述為:
我們對(duì)姿勢(shì)T和神經(jīng)參數(shù)Θ進(jìn)行最小化,給定超參數(shù)λD來(lái)平衡深度和顏色監(jiān)督(我們將λD設(shè)置為1.0)。特別是,我們的深度損失是由以下公式給出的。
其中,D*是渲染的深度,D、ΣD是由跟蹤模塊估計(jì)的密集深度和不確定性。我們將深度D*渲染為預(yù)期的射線終止距離。每個(gè)像素的深度都是通過(guò)沿著像素的射線取樣的三維位置來(lái)計(jì)算的,在樣本i處評(píng)估密度σi,并將得到的密度進(jìn)行alpha合成,與標(biāo)準(zhǔn)的體積渲染類似:
顏色的渲染損失如下:
3. 架構(gòu)
我們的管道由一個(gè)跟蹤線程和一個(gè)映射線程組成,兩者都是實(shí)時(shí)和并行運(yùn)行的。追蹤線程不斷地將關(guān)鍵幀活動(dòng)窗口的BA重投影誤差降到最低。
映射線程總是優(yōu)化從跟蹤線程收到的所有關(guān)鍵幀,并且沒(méi)有一個(gè)有效幀的滑動(dòng)窗口。這些線程之間的唯一通信發(fā)生在追蹤管道生成新關(guān)鍵幀時(shí)。
在每一個(gè)新的關(guān)鍵幀上,跟蹤線程將當(dāng)前關(guān)鍵幀的姿勢(shì)與它們各自的圖像和估計(jì)的深度圖,以及深度的邊際協(xié)方差,發(fā)送到映射線程。
只有跟蹤線程的滑動(dòng)優(yōu)化窗口中當(dāng)前可用的信息被發(fā)送到映射線程。跟蹤線程的有效滑動(dòng)窗口最多包括8個(gè)關(guān)鍵幀。
只要前一個(gè)關(guān)鍵幀和當(dāng)前幀之間的平均光流高于一個(gè)閾值(在我們的例子中是2.5像素),跟蹤線程就會(huì)生成一個(gè)新的關(guān)鍵幀。最后,映射線程還負(fù)責(zé)渲染,以實(shí)現(xiàn)重建的交互式可視化。
主要結(jié)果
審核編輯:劉清
-
Gru
+關(guān)注
關(guān)注
0文章
12瀏覽量
7471 -
SLAM
+關(guān)注
關(guān)注
23文章
411瀏覽量
31738 -
NGP
+關(guān)注
關(guān)注
0文章
12瀏覽量
6665
原文標(biāo)題:NeRF-SLAM:實(shí)時(shí)密集單眼SLAM 輻射場(chǎng)的實(shí)時(shí)密集單眼SLAM
文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論