0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CVPR | 數(shù)字文藝復(fù)興:NVIDIA Neuralangelo 研究重構(gòu) 3D 場景

NVIDIA英偉達(dá) ? 來源:未知 ? 2023-06-05 10:45 ? 次閱讀

Neuralangelo 是 NVIDIA Research 開發(fā)的一個(gè)全新 AI 模型,它利用神經(jīng)網(wǎng)絡(luò)進(jìn)行 3D 重建,可將 2D 視頻片段轉(zhuǎn)換為詳細(xì)的 3D 結(jié)構(gòu),為建筑物、雕塑以及其他真實(shí)物體生成逼真的虛擬復(fù)本。

就像米開朗基羅用大理石雕刻出令人驚嘆、栩栩如生的雕塑一樣,Neuralangelo 能生成具有復(fù)雜細(xì)節(jié)和紋理的 3D 結(jié)構(gòu)。隨后,創(chuàng)意人士可以將這些 3D 物體導(dǎo)入設(shè)計(jì)軟件中,對其進(jìn)行進(jìn)一步編輯,用于藝術(shù)、視頻游戲開發(fā)、機(jī)器人工業(yè)數(shù)字孿生。

Neuralangelo 將復(fù)雜材料——包括屋頂瓦片、玻璃板和光滑的大理石——的紋理從 2D 視頻轉(zhuǎn)換為 3D 物料的能力大大超過了以前的方法。高保真度讓開發(fā)者和創(chuàng)意專業(yè)人士更容易進(jìn)行 3D 重建,使用智能手機(jī)拍攝的視頻快速為項(xiàng)目創(chuàng)建可用的虛擬物體。

NVIDIA Research 高級研究總監(jiān)、上述論文的合著者劉洺堉表示:“Neuralangelo 的 3D 重建能力將使創(chuàng)作者受益匪淺,能夠幫助他們在數(shù)字世界中重建現(xiàn)實(shí)世界。這個(gè)工具最終將使開發(fā)人員能夠?qū)⒃敿?xì)的對象——無論是小雕像還是大型建筑——導(dǎo)入到虛擬環(huán)境中,用于電子游戲或工業(yè)數(shù)字孿生?!?/p>

在一次演示中,NVIDIA 研究人員展示了該模型如何重建米開朗基羅“大衛(wèi)像”這樣的標(biāo)志性物體以及平板卡車這樣的普通物體。Neuralangelo 還可以重建建筑物的內(nèi)部和外部——以 NVIDIA 灣區(qū)辦公園區(qū)的詳細(xì) 3D 模型為例進(jìn)行了演示。

在 3D 中應(yīng)用神經(jīng)渲染模型

之前用于重建 3D 場景的 AI 模型很難準(zhǔn)確捕捉重復(fù)的紋理、均勻的顏色和強(qiáng)烈的顏色變化。Neuralangelo 采用即時(shí)神經(jīng)圖形基元——即 NVIDIA Instant NeRF 背后的技術(shù)——來幫助捕捉這些更精細(xì)的細(xì)節(jié)。

使用從不同角度拍攝的物體或場景的 2D 視頻,該模型會選擇從不同角度捕捉的鏡頭來確定物體或場景的深度、大小和形狀,就像藝術(shù)家會從多個(gè)角度描繪一個(gè)物體一樣。

一旦確定了每個(gè)鏡頭的相機(jī)位置,Neuralangelo 的 AI 就會創(chuàng)建一個(gè)粗略的 3D 場景,相當(dāng)于雕塑家開始雕刻主體的形狀。

然后,該模型對渲染進(jìn)行優(yōu)化以銳化細(xì)節(jié),就好像雕塑家辛苦雕琢石頭來模仿織物或人的紋理。

最終會生成一個(gè) 3D 物體或大規(guī)模場景,可用于虛擬現(xiàn)實(shí)應(yīng)用、數(shù)字孿生或機(jī)器人開發(fā)。

在 6 月18-22 日舉行的 CVPR 大會上

探尋 NVIDIA Research 的研究成果

在 6 月 18 日至 22 日于溫哥華舉行的 CVPR 上,NVIDIA Research 將展示近 30 個(gè)項(xiàng)目,其中包括 Neuralangelo。這些論文的主題涵蓋姿態(tài)估計(jì)、3D 重建和視頻生成。

其中一個(gè)名為 DiffCollage 的項(xiàng)目是一種創(chuàng)建大規(guī)模內(nèi)容的擴(kuò)散法,包括長橫向、360 度全景圖和循環(huán)運(yùn)動(dòng)圖像。當(dāng)輸入一個(gè)具有標(biāo)準(zhǔn)長寬比的圖像訓(xùn)練數(shù)據(jù)集時(shí),DiffCollage 將這些較小的圖像視為更大視覺片段的一部分——就像一張張拼貼畫。這使得擴(kuò)散模型能夠生成看上去有凝聚力的大型內(nèi)容,而無需使用相同比例的圖像進(jìn)行訓(xùn)練。

該技術(shù)還可以將文本提示轉(zhuǎn)換為視頻序列,技術(shù)演示中使用了預(yù)先訓(xùn)練的擴(kuò)散模型來捕捉人體動(dòng)作:

點(diǎn)擊“閱讀原文”,了解有關(guān) NVIDIA Research 參展 CVPR 的更多信息。

掃描下方海報(bào)二維碼,觀看 NVIDIA 創(chuàng)始人兼 CEO 黃仁勛在 COMPUTEX 2023 的主題演講直播回放,主題演講中文字幕版已上線,了解 AI、圖形及其他領(lǐng)域的最新進(jìn)展!


原文標(biāo)題:CVPR | 數(shù)字文藝復(fù)興:NVIDIA Neuralangelo 研究重構(gòu) 3D 場景

文章出處:【微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3684

    瀏覽量

    90506

原文標(biāo)題:CVPR | 數(shù)字文藝復(fù)興:NVIDIA Neuralangelo 研究重構(gòu) 3D 場景

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    中興通訊全場景AI終端應(yīng)用與裸眼3D新品亮相

    ”的產(chǎn)品戰(zhàn)略與理念,終端業(yè)務(wù)六大AI主題展示吸引了眾多關(guān)注,內(nèi)容覆蓋全球領(lǐng)先的AI裸眼3D、AI同聲傳譯和方言互譯、AI安全反詐、AI智慧商務(wù)和創(chuàng)作、紅魔AI游戲魔方以及AI魔法影像等應(yīng)用和產(chǎn)品。在此
    的頭像 發(fā)表于 10-15 10:00 ?461次閱讀

    3D ToF三維場景距離(景深)測量系統(tǒng)簡介

    電子發(fā)燒友網(wǎng)站提供《3D ToF三維場景距離(景深)測量系統(tǒng)簡介.pdf》資料免費(fèi)下載
    發(fā)表于 09-29 10:55 ?0次下載
    <b class='flag-5'>3D</b> ToF三維<b class='flag-5'>場景</b>距離(景深)測量系統(tǒng)簡介

    使用NVIDIA Edify助力的服務(wù)創(chuàng)建3D資產(chǎn)和虛擬環(huán)境照明

    使用 NVIDIA Edify 助力的服務(wù)創(chuàng)建 3D 資產(chǎn)和虛擬環(huán)境照明,或是減半生成圖像時(shí)間。
    的頭像 發(fā)表于 08-02 15:22 ?374次閱讀

    3d場景建??梢暬?b class='flag-5'>場景1:1還原

    在當(dāng)今數(shù)字化時(shí)代,3D場景建??梢暬夹g(shù)成為重要工具,為各行業(yè)提供了強(qiáng)大的展示和交互手段。從電影特效到建筑設(shè)計(jì),從游戲開發(fā)到虛擬現(xiàn)實(shí),3D場景
    的頭像 發(fā)表于 07-12 14:49 ?178次閱讀

    OpenCV攜Orbbec 3D相機(jī)亮相CVPR 2024,加速AI視覺創(chuàng)新

    在科技發(fā)展的浪潮中,一年一度的IEEE國際計(jì)算機(jī)視覺與模式識別會議(CVPR)無疑是視覺技術(shù)領(lǐng)域的一大盛事。今年的CVPR 2024于6月17日至21日在美國西雅圖盛大舉行,吸引了全球超過1.2萬名參會者,這一數(shù)字打破了歷史記錄
    的頭像 發(fā)表于 06-21 10:15 ?517次閱讀

    OpenCV攜奧比中光3D相機(jī)亮相CVPR 2024

    6月17日-21日,奧比中光合作伙伴OpenCV攜Orbbec 3D相機(jī)參展在美國西雅圖舉辦的CVPR 2024(即IEEE國際計(jì)算機(jī)視覺與模式識別會議),讓開發(fā)者親身體驗(yàn)Orbbec 3D相機(jī)
    的頭像 發(fā)表于 06-21 09:38 ?442次閱讀

    NVIDIA Instant NeRF將多組靜態(tài)圖像變?yōu)?b class='flag-5'>3D數(shù)字場景

    想象一幅風(fēng)光旖旎的畫面,比如水畔的懸崖峭壁。即便只是 2D 圖像,如此美景依舊令人心馳神往。如果同一畫面能以 3D 效果展現(xiàn),那么無需跋涉就能身臨其境。
    的頭像 發(fā)表于 05-07 09:15 ?353次閱讀

    NVIDIA生成式AI研究實(shí)現(xiàn)在1秒內(nèi)生成3D形狀

    NVIDIA 研究人員使 LATTE3D (一款最新文本轉(zhuǎn) 3D 生成式 AI 模型)實(shí)現(xiàn)雙倍加速。
    的頭像 發(fā)表于 03-27 10:28 ?416次閱讀
    <b class='flag-5'>NVIDIA</b>生成式AI<b class='flag-5'>研究</b>實(shí)現(xiàn)在1秒內(nèi)生成<b class='flag-5'>3D</b>形狀

    Nullmax提出多相機(jī)3D目標(biāo)檢測新方法QAF2D

    今天上午,計(jì)算機(jī)視覺領(lǐng)域頂會CVPR公布了最終的論文接收結(jié)果,Nullmax感知部門的3D目標(biāo)檢測研究《Enhancing 3D Object Detection with 2
    的頭像 發(fā)表于 02-27 16:38 ?1009次閱讀
    Nullmax提出多相機(jī)<b class='flag-5'>3D</b>目標(biāo)檢測新方法QAF2<b class='flag-5'>D</b>

    3D HMI應(yīng)用場景和發(fā)展趨勢

    人機(jī)交互的革命性趨勢。本文將探討3DHMI設(shè)計(jì)的概念、優(yōu)勢、應(yīng)用場景以及未來發(fā)展趨勢。3DHMI設(shè)計(jì)的概念3DHMI設(shè)計(jì)是一種基于三維界面和人機(jī)交互的設(shè)計(jì)理念。它利用
    的頭像 發(fā)表于 02-19 13:27 ?891次閱讀
    <b class='flag-5'>3D</b> HMI應(yīng)用<b class='flag-5'>場景</b>和發(fā)展趨勢

    如何搞定自動(dòng)駕駛3D目標(biāo)檢測!

    可用于自動(dòng)駕駛場景下基于圖像的3D目標(biāo)檢測的數(shù)據(jù)集總結(jié)。其中一些數(shù)據(jù)集包括多個(gè)任務(wù),這里只報(bào)告了3D檢測基準(zhǔn)(例如KITTI 3D發(fā)布了超過40K的圖像,其中約15K用于
    發(fā)表于 01-05 10:43 ?511次閱讀
    如何搞定自動(dòng)駕駛<b class='flag-5'>3D</b>目標(biāo)檢測!

    阿迪達(dá)斯與 Covision Media 使用 AI 和 NVIDIA RTX 創(chuàng)建逼真的 3D 內(nèi)容

    Covision Media 正在使用 AI 和 NVIDIA RTX 改進(jìn) 3D 掃描流程和 3D 內(nèi)容創(chuàng)建。 Covis
    的頭像 發(fā)表于 11-28 18:45 ?588次閱讀
    阿迪達(dá)斯與 Covision Media 使用 AI 和 <b class='flag-5'>NVIDIA</b> RTX 創(chuàng)建逼真的 <b class='flag-5'>3D</b> 內(nèi)容

    HT for Web (Hightopo) 使用心得(4)- 3D 場景 Graph3dView 與 Obj 模型

    這里我們通過代碼建立一個(gè) 3D 場景并添加一個(gè) Obj 模型來介紹一下 HT for Web 在 3D 場景和模型加載方面的使用。
    的頭像 發(fā)表于 11-20 11:05 ?685次閱讀
    HT for Web (Hightopo) 使用心得(4)- <b class='flag-5'>3D</b> <b class='flag-5'>場景</b> Graph<b class='flag-5'>3</b>dView 與 Obj 模型

    基于深度學(xué)習(xí)的3D點(diǎn)云實(shí)例分割方法

    3D實(shí)例分割(3DIS)是3D領(lǐng)域深度學(xué)習(xí)的核心問題。給定由點(diǎn)云表示的 3D 場景,我們尋求為每個(gè)點(diǎn)分配語義類和唯一的實(shí)例標(biāo)簽。
    發(fā)表于 11-13 10:34 ?1946次閱讀
    基于深度學(xué)習(xí)的<b class='flag-5'>3D</b>點(diǎn)云實(shí)例分割方法

    洞悉 Omniverse:Marmoset 帶來渲染方面的突破,通過擴(kuò)展對 OpenUSD 的支持改進(jìn) 3D 藝術(shù)創(chuàng)作流

    的情況下構(gòu)建復(fù)雜的 3D 模型,改進(jìn)他們的創(chuàng)意工作流。 最新發(fā)布的 Marmoset Toolbag 4.06 版本增加了對? OpenUSD(通用場景描述) 的支持,實(shí)
    的頭像 發(fā)表于 10-27 19:55 ?449次閱讀
    洞悉 Omniverse:Marmoset 帶來渲染方面的突破,通過擴(kuò)展對 OpenUSD 的支持改進(jìn) <b class='flag-5'>3D</b> 藝術(shù)創(chuàng)作流