0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NeurlPS'23開源 | 大規(guī)模室外NeRF也可以實(shí)時(shí)渲染

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-11-08 16:41 ? 次閱讀

0. 筆者個(gè)人體會

NeRF確實(shí)很火,但現(xiàn)有工作主要還是面向室內(nèi)場景。因?yàn)槭彝猸h(huán)境是一個(gè)典型的無邊界問題,這樣NeRF射線就沒辦法采樣,而且室外環(huán)境的計(jì)算量也是很大的問題。

今天,筆者將為大家分享一篇NeurlPS 2023開源的最新工作UE4-NeRF,是一種大規(guī)模室外場景的實(shí)時(shí)NeRF框架,還支持交互式的編輯渲染。希望能對NeRF領(lǐng)域的小伙伴有所幫助~

1. 效果展示

先介紹一下UE4-NeRF的輸入輸出,輸入是無人機(jī)采集的大規(guī)模場景,輸出是在UE4中進(jìn)行的實(shí)時(shí)渲染,還有場景編輯功能。

10af77c6-7cf9-11ee-939d-92fbcf53809c.png

然后看看具體的重建效果對比,UE4-NeRF渲染的清晰度很高,但之前的Mobile-NeRF和Mega-NeRF就比較模糊模糊。

10d4a906-7cf9-11ee-939d-92fbcf53809c.png

即使是對玻璃這種半透明物體,也可以渲染的很好。

10f12108-7cf9-11ee-939d-92fbcf53809c.png

代碼已經(jīng)開源了,目前支持Windows和20/30系列顯卡,感興趣的小伙伴可以測試一下效果。下面我們來看具體的論文信息。

2. 摘要

神經(jīng)輻射場 (NeRF)是一種新穎的隱式三維重建方法,顯示出巨大的潛力,受到越來越多的關(guān)注。它能夠僅從一組照片中重建3D場景。然而,它的實(shí)時(shí)渲染能力,尤其是對于大規(guī)模場景的交互式實(shí)時(shí)渲染,仍然具有顯著的局限性。為了應(yīng)對這些挑戰(zhàn),本文提出了一種新的神經(jīng)渲染系統(tǒng)UE4-NeRF,專門用于大規(guī)模場景的實(shí)時(shí)渲染。我們把每個(gè)大場景分成不同的子場景。為了表示分割后的獨(dú)立場景,我們通過在場景中構(gòu)造多個(gè)正八面體來初始化多邊形網(wǎng)格,并在訓(xùn)練過程中不斷優(yōu)化多邊形面的頂點(diǎn)。從細(xì)節(jié)層次(LOD)技術(shù)中汲取靈感,我們?yōu)椴煌挠^察層次訓(xùn)練了不同細(xì)節(jié)層次的網(wǎng)格。我們的方法與Unreal Engine4 (UE4)中的光柵化管道相結(jié)合,實(shí)現(xiàn)了4K分辨率的大規(guī)模場景的實(shí)時(shí)渲染,幀率高達(dá)43 FPS。UE4中的渲染也有助于后續(xù)階段的場景編輯。此外,通過實(shí)驗(yàn),我們證明了我們的方法實(shí)現(xiàn)了可與最先進(jìn)的方法相媲美的渲染質(zhì)量。

3. 算法解析

UE4-NeRF的核心思想是將大場景分塊為多個(gè)小場景,將小場景表征為多面體,然后再不斷優(yōu)化網(wǎng)格頂點(diǎn)位置。

具體的Pipeline包含三個(gè)模塊:

(1) 訓(xùn)練模塊,劃分子NeRF并初始化每個(gè)小場景的網(wǎng)格。整個(gè)訓(xùn)練過程不斷優(yōu)化編碼器-解碼器網(wǎng)絡(luò)參數(shù)和網(wǎng)格頂點(diǎn)位置;

(2) 預(yù)渲染,提取不同細(xì)節(jié)層次的多邊形網(wǎng)格,為最終渲染做準(zhǔn)備;

(3) 渲染模塊,由推理子模塊和UE4子模塊組成,通過通信來實(shí)現(xiàn)最終的實(shí)時(shí)渲染。

1122474c-7cf9-11ee-939d-92fbcf53809c.png

Pipeline里有幾個(gè)trick:

1、分割block時(shí),實(shí)際訓(xùn)練區(qū)域要比提取區(qū)域稍大一些,這樣來保證不同block邊界的平滑過渡;

2、初始化是先建立一個(gè)128×128×128的網(wǎng)格,然后選擇每個(gè)網(wǎng)格的中心點(diǎn)及其六個(gè)相鄰的網(wǎng)格(前、后、左、右、上、下)來創(chuàng)建多邊形網(wǎng)格。

3、為了解決Mobile-NeRF在處理傾斜表面時(shí)遇到的收斂速度慢且不穩(wěn)定的問題,使用具有20個(gè)面的正八面體,包括8個(gè)外部面和12個(gè)內(nèi)部面。

然后說一下具體的訓(xùn)練過程:

對于從相機(jī)原點(diǎn)發(fā)射到像素的每條射線,計(jì)算與多邊形網(wǎng)格的交點(diǎn)作為采樣點(diǎn)。對于每個(gè)模塊,編碼器以位置信息pi作為輸入,輸出包含不透明度的8D特征向量Mi,解碼器以Mi和射線方向作為輸入,輸出采樣點(diǎn)的顏色。射線方向編碼用的球諧系數(shù)。

114dfac2-7cf9-11ee-939d-92fbcf53809c.png

渲染就和傳統(tǒng)NeRF很相似了,包括光度損失和深度損失兩部分。不同點(diǎn)一個(gè)是把體密度換成了不透明度,另一個(gè)是光度損失分成了兩個(gè)級別。第一級就是傳統(tǒng)的光度損失,Vp是頂點(diǎn)位置:

115fdfee-7cf9-11ee-939d-92fbcf53809c.png

為了提高三角形網(wǎng)格與物體表面的接近度,設(shè)計(jì)了光度損失的第二個(gè)分量:

11727b9a-7cf9-11ee-939d-92fbcf53809c.png

這個(gè)損失的原理是,僅選擇不透明度大于閾值的采樣點(diǎn)。并且當(dāng)累積的不透明度超過0.8時(shí),直接停止渲染過程。剛開始訓(xùn)練時(shí)其實(shí)第二個(gè)損失沒有什么影響,隨著訓(xùn)練進(jìn)行,第二個(gè)成分的權(quán)重逐漸增加,將不透明度集中在有限數(shù)量的特定網(wǎng)格上,并將其向目標(biāo)壓縮,從而改善渲染結(jié)果。

1186a12e-7cf9-11ee-939d-92fbcf53809c.png

下面再說這個(gè)預(yù)渲染是啥?

先一句話總結(jié)一下:利用來自加速網(wǎng)格的預(yù)測值來識別和移除不具有顯著幾何表面的網(wǎng)格。目的是提高網(wǎng)格利用率、渲染推理速度,降低存儲成本。

具體流程是:

1、對每個(gè)block,除了用于訓(xùn)練的相機(jī)視角外,引入上方各個(gè)角度的平行射線。計(jì)算每條射線與多邊形網(wǎng)格的交點(diǎn),當(dāng)累積不透明度超過0.8時(shí),光線的遍歷停止。如果一個(gè)三角形面上所有交點(diǎn)的不透明度都低于0.3,那就直接裁掉這個(gè)面。

2、進(jìn)行坐標(biāo)變換,對齊獲得的網(wǎng)格和現(xiàn)實(shí)世界的尺度。

3、將三角形的頂點(diǎn)坐標(biāo)映射到它們在UV坐標(biāo)中的相應(yīng)位置。

11a01af0-7cf9-11ee-939d-92fbcf53809c.png

最后,就可以將預(yù)渲染的多邊形網(wǎng)格與Unreal Engine 4 (UE4)中可用的光柵化pipeline相結(jié)合。隨后,應(yīng)用解碼器網(wǎng)絡(luò)將每個(gè)像素的17D特征(8個(gè)通道和9D觀察方向)轉(zhuǎn)換為RGB顏色。

4. 實(shí)驗(yàn)

訓(xùn)練在3090上進(jìn)行,每個(gè)block大約需要訓(xùn)練40分鐘。UE4-NeRF是面向室外大場景,具體的實(shí)驗(yàn)環(huán)境包括無人機(jī)采集的農(nóng)村(FL)、建筑工地(CS)、工業(yè)園區(qū)(IP)。采集的圖像分辨率為6000×4000像素并且包含GPS信息(用來轉(zhuǎn)換尺度)。使用4k分辨率實(shí)時(shí)重建的速度為43 FPS(論文中提到提升續(xù)航后可以更快)。

11ca03ec-7cf9-11ee-939d-92fbcf53809c.png

重建精度的定量對比,UE4-NeRF的重建速度和精度都非常好,并且對GPU要求很低。這也是實(shí)時(shí)性的一個(gè)體現(xiàn),畢竟無人機(jī)不能真頂一個(gè)4090去飛。

11e96106-7cf9-11ee-939d-92fbcf53809c.png

UE4-NeRF和其他3個(gè)NeRF重建效果的定性對比,NeRFacto和Instant-NGP(NVIDIA提出的5s訓(xùn)練)也是實(shí)時(shí)方案。結(jié)果顯示UE4-NeRF特別擅長渲染小、密集、半透明的物體。

12078690-7cf9-11ee-939d-92fbcf53809c.png

訓(xùn)練時(shí)間和FPS的對比,Mobile-NeRF訓(xùn)練一個(gè)塊就需要2天時(shí)間,并且需要4塊3090ti。而且Mega-NeRF在訓(xùn)練過程中會生成幾百G的臨時(shí)文件。

1228e4a2-7cf9-11ee-939d-92fbcf53809c.png

低紋理區(qū)域的渲染質(zhì)量也很不錯(cuò)。

125529fe-7cf9-11ee-939d-92fbcf53809c.png

最后是一個(gè)交互性的編輯實(shí)驗(yàn),UE4-NeRF允許導(dǎo)入和編輯渲染的場景,還能自動處理遮擋場景(因?yàn)槭褂昧薝nreal Engine4)。而且當(dāng)目標(biāo)遮擋NeRF渲染的場景時(shí),由于NeRF計(jì)算量減少,渲染幀率略有提高。這里也推薦「3D視覺工坊」新課程《基于深度學(xué)習(xí)的三維重建MVSNet系列 [論文+源碼+應(yīng)用+科研]》。

129146a0-7cf9-11ee-939d-92fbcf53809c.png

5. 總結(jié)

UE4-NeRF提出了一個(gè)面向室外大場景的實(shí)時(shí)NeRF渲染系統(tǒng),主要思想是將場景劃分為多個(gè)block,并為每個(gè)block訓(xùn)練單獨(dú)的NeRF。感覺這項(xiàng)工作還是挺有意思的,但是模型設(shè)計(jì)上用了特別多的trick。此外,作者也提到了一些他們工作的問題:

1、依賴GPU,渲染幾平方公里的大場景時(shí)內(nèi)存開銷太大(這好像不是問題吧?);

2、在預(yù)渲染過程中,很難捕捉到任何視角的射線,導(dǎo)致最終的渲染場景存在空洞。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3059

    瀏覽量

    48575
  • 無人機(jī)
    +關(guān)注

    關(guān)注

    226

    文章

    10262

    瀏覽量

    178652
  • 渲染系統(tǒng)
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    5664

原文標(biāo)題:NeurlPS'23開源 | 大規(guī)模室外NeRF也可以實(shí)時(shí)渲染

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Veloce平臺在大規(guī)模SOC仿真驗(yàn)證中的應(yīng)用

    隨著現(xiàn)代集成電路技術(shù)的發(fā)展,尤其是IP的大量使用,芯片的規(guī)模越來越大,系統(tǒng)功能越來越復(fù)雜,普通的EDA和FPGA仿真在速度和性能上已經(jīng)無法勝任芯片仿真驗(yàn)證的要求,功能驗(yàn)證已經(jīng)成為大規(guī)模芯片設(shè)計(jì)的一個(gè)
    發(fā)表于 05-28 13:41

    大規(guī)模特征構(gòu)建實(shí)踐總結(jié)

    還是參考wide&deep的套路做,其中的deep并不是很deep。而大規(guī)模模型,是非常通用的一套框架,這套模型的優(yōu)點(diǎn)是一種非常容易加特征,所以本質(zhì)是拼特征的質(zhì)和量,比如百度、頭條號稱特征
    發(fā)表于 11-19 09:35

    大規(guī)模天線技術(shù)商用測試

    Interface 原型機(jī)、英國布里斯托大學(xué)的原型機(jī)等。下圖是美國萊斯大學(xué)完成的64天線陣列樣機(jī)。此外,各大設(shè)備商加緊原型機(jī)的研發(fā),在過去的幾年中,各大設(shè)備商紛紛完成了大規(guī)模天線原型樣機(jī)的初步驗(yàn)證。在選定場景下,樣機(jī)的單站測試峰值頻譜效率
    發(fā)表于 06-13 07:49

    大規(guī)模MIMO的利弊

    IEEE Transactions on Information Forensics and Security上的一篇論文探討了這種類型的攻擊。他們發(fā)現(xiàn),在某些情況下,當(dāng)使用大規(guī)模多入多出技術(shù)
    發(fā)表于 06-18 07:54

    大規(guī)模MIMO的性能

    軌跡產(chǎn)生的容量斜坡仍然比需求線平坦。面對此挑戰(zhàn),3GPP 標(biāo)準(zhǔn)實(shí)體近來提出了數(shù)據(jù)容量“到2020 年增長1000 倍”的目標(biāo),以滿足演進(jìn)性或革命性創(chuàng)意的需要。這種概念要求基站部署極大規(guī)模的天線陣
    發(fā)表于 07-17 07:54

    如何去推進(jìn)FTTH大規(guī)模建設(shè)?

    如何去推進(jìn)FTTH大規(guī)模建設(shè)?影響FTTH大規(guī)模建設(shè)的原因有哪些?
    發(fā)表于 05-27 06:58

    基于三角形二叉樹的實(shí)時(shí)大規(guī)模地形渲染算法

    提出一種大規(guī)模地形渲染算法,對大規(guī)模地形進(jìn)行分塊,用三角形二叉樹表示地形網(wǎng)格,在實(shí)時(shí)漫游中,通過強(qiáng)制分割和強(qiáng)制合并實(shí)時(shí)更新網(wǎng)格,充分利用幀與
    發(fā)表于 04-01 09:20 ?17次下載

    從多視角圖像做三維場景重建 (CVPR'22 Oral)

    最近,有方法提出基于隱式神經(jīng)表示做三維重建。NeRF [3] 通過可微分的體積渲染技術(shù)從圖像中學(xué)習(xí)隱式輻射場。NeRF可以實(shí)現(xiàn)有真實(shí)感的視角合成,但是幾何重建結(jié)果噪音很嚴(yán)重,主要是因?yàn)?/div>
    的頭像 發(fā)表于 02-20 10:11 ?2673次閱讀

    聯(lián)合NeRF與特征網(wǎng)格,實(shí)現(xiàn)超大規(guī)模城市渲染

    首先在預(yù)訓(xùn)練階段使用特征網(wǎng)格對目標(biāo)場景進(jìn)行建模,從而粗糙地捕捉場景的幾何形狀和外觀。然后使用粗特征網(wǎng)格,1) 引導(dǎo) NeRF 點(diǎn)采樣,使其集中在場景表面周圍;2) 為 NeRF 的位置編碼提供關(guān)于場景幾何形狀和在采樣位置上的外觀額外特征。
    的頭像 發(fā)表于 05-08 11:14 ?541次閱讀
    聯(lián)合<b class='flag-5'>NeRF</b>與特征網(wǎng)格,實(shí)現(xiàn)超<b class='flag-5'>大規(guī)模</b>城市<b class='flag-5'>渲染</b>

    了解NeRF 神經(jīng)輻射場

    的工作原理是自監(jiān)督的,通過在有限的輸入視圖上訓(xùn)練數(shù)據(jù),可以用較少的數(shù)據(jù)集生成高質(zhì)量的渲染。相比傳統(tǒng)方法中使用離散化的網(wǎng)格或體素表示場景,NeRF的連續(xù)函數(shù)表示具有優(yōu)勢,并能夠從任意角度渲染
    的頭像 發(fā)表于 06-12 09:52 ?5018次閱讀
    了解<b class='flag-5'>NeRF</b> 神經(jīng)輻射場

    Nerf Alexa家庭防御炮塔開源構(gòu)建

    電子發(fā)燒友網(wǎng)站提供《Nerf Alexa家庭防御炮塔開源構(gòu)建.zip》資料免費(fèi)下載
    發(fā)表于 07-10 14:38 ?0次下載
    <b class='flag-5'>Nerf</b> Alexa家庭防御炮塔<b class='flag-5'>開源</b>構(gòu)建

    華南理工賈奎團(tuán)隊(duì)ICCV&amp;apos;23新作:支持重新照明、編輯和物理仿真

    現(xiàn)有的文本到三維模型的生成方法通常使用NeRF等隱式表達(dá),通過體積渲染將幾何和外觀耦合在一起,但在恢復(fù)更精細(xì)的幾何結(jié)構(gòu)和實(shí)現(xiàn)逼真渲染方面存在不足,所以在生成高質(zhì)量三維資產(chǎn)方面效果較差。
    的頭像 發(fā)表于 07-29 16:25 ?452次閱讀
    華南理工賈奎團(tuán)隊(duì)ICCV&<b class='flag-5'>amp</b>;<b class='flag-5'>apos</b>;<b class='flag-5'>23</b>新作:支持重新照明、編輯和物理仿真

    利用PyTorch實(shí)現(xiàn)NeRF代碼詳解

    神經(jīng)輻射場(NeRF)是一種利用神經(jīng)網(wǎng)絡(luò)來表示和渲染復(fù)雜的三維場景的方法。它可以從一組二維圖片中學(xué)習(xí)出一個(gè)連續(xù)的三維函數(shù),這個(gè)函數(shù)可以給出空間中任意位置和方向上的顏色和密度。通過體積
    的頭像 發(fā)表于 10-21 09:46 ?677次閱讀

    NeurlPS&;apos;23開源 | 首個(gè)!開放詞匯3D實(shí)例分割!

    我們介紹了開放詞匯3D實(shí)例分割的任務(wù)。當(dāng)前的3D實(shí)例分割方法通常只能從訓(xùn)練數(shù)據(jù)集中標(biāo)注的預(yù)定義的封閉類集中識別對象類別。這給現(xiàn)實(shí)世界的應(yīng)用程序帶來了很大的限制,在現(xiàn)實(shí)世界的應(yīng)用程序中,人們可能需要執(zhí)行由與各種各樣的對象相關(guān)的新穎、開放的詞匯表查詢所指導(dǎo)的任務(wù)。
    的頭像 發(fā)表于 11-14 15:53 ?508次閱讀
    <b class='flag-5'>NeurlPS&</b>;<b class='flag-5'>apos</b>;<b class='flag-5'>23</b><b class='flag-5'>開源</b> | 首個(gè)!開放詞匯3D實(shí)例分割!

    揭秘:實(shí)時(shí)渲染、離線渲染、云渲染和混合渲染的區(qū)別

    遇到這些概念,或者一些3D渲染引擎產(chǎn)品的時(shí)候,可以按照這些渲染分類,去快速的進(jìn)行定位和分析,更好的幫助我們理解和學(xué)習(xí)。一、實(shí)時(shí)渲染
    的頭像 發(fā)表于 12-26 08:27 ?666次閱讀
    揭秘:<b class='flag-5'>實(shí)時(shí)</b><b class='flag-5'>渲染</b>、離線<b class='flag-5'>渲染</b>、云<b class='flag-5'>渲染</b>和混合<b class='flag-5'>渲染</b>的區(qū)別