0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

你知道3D運(yùn)動雕塑嗎?利用AI檢測人體2D圖像并恢復(fù)成3D模型

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-10-04 09:17 ? 次閱讀

你知道3D運(yùn)動雕塑嗎?MIT、Google和UC Berkeley的研究人員創(chuàng)建了一個名為MoSculp的AI系統(tǒng),只需視頻輸入,利用AI檢測人體2D圖像并恢復(fù)成3D模型,就能創(chuàng)造出超現(xiàn)實(shí)主義的3D運(yùn)動雕塑。

雕塑大家都認(rèn)識,3D電影想必大家也都看過,但你知道3D運(yùn)動雕塑嗎?

簡單地說,這是一種獨(dú)特的展示人體如何運(yùn)動的方式。3D運(yùn)動雕塑(3D motion sculpture)可以將任何物體的移動路徑形成3D視圖,物體的形狀、運(yùn)動軌跡都會影響最后的效果。

將雕塑和3D這兩種藝術(shù)混合起來的這些作品,是由MIT計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室、Google Research以及加州大學(xué)伯克利分校的研究人員共同創(chuàng)造的。他們利用AI系統(tǒng)產(chǎn)生了這些超現(xiàn)實(shí)主義的運(yùn)動與姿勢的混合。

作為輸入的運(yùn)動影像

創(chuàng)作3D運(yùn)動雕塑

這個系統(tǒng)被稱為MoSculp,在論文《MoSculp:形狀和時間的交互式可視化》中有詳細(xì)描述。該論文將于下個月在德國柏林的用戶界面軟件與技術(shù)大會(UIST)上發(fā)表。

論文的第一作者、MIT博士生張修明(Xiuming Zhang)認(rèn)為,這一技術(shù)可以用來為想要提高技能的運(yùn)動員提供詳細(xì)的運(yùn)動研究。

3D運(yùn)動雕塑可用作運(yùn)動研究

張修明說:“想象一下,你有一段費(fèi)德勒在網(wǎng)球比賽中發(fā)球的視頻,還有一段你自己練習(xí)打網(wǎng)球的視頻。你可以用MoSculp創(chuàng)建兩種場景的運(yùn)動雕塑,然后進(jìn)行對比,更全面地研究你需要改進(jìn)的地方?!?/p>

具體來說,這個系統(tǒng)的工作有多個步驟:

首先,MoSculp能夠檢測人體及其2D姿態(tài),利用的是CMU感知計(jì)算實(shí)驗(yàn)室開發(fā)的多人關(guān)鍵點(diǎn)實(shí)時檢測庫OpenPose,估計(jì)每個幀中的關(guān)鍵點(diǎn)(踝關(guān)節(jié),肘關(guān)節(jié),髖關(guān)節(jié)等)。

自動檢測關(guān)鍵點(diǎn)

接下來,MoSculp將2D姿態(tài)恢復(fù)成一個3D人體模型,展現(xiàn)人體的整體形狀和人體隨時間運(yùn)動的姿態(tài)。

AI通過3D空間掃描這個模型,以創(chuàng)建初始運(yùn)動雕塑,但正如研究人員指出的那樣,這個模型缺乏紋理和結(jié)構(gòu)細(xì)節(jié),比如精細(xì)的面部結(jié)構(gòu)、頭發(fā)和衣服。

有沒有聰明的解決方案呢?

研究人員提出將雕塑插入到原始視頻中,而不是將3D內(nèi)容從視頻映射到場景中。

為了防止出現(xiàn)偽影和遮擋,MoSculp估計(jì)出每個幀中人物和雕塑的深度圖(depth map),并將兩者進(jìn)行比較,以確定人是比雕塑更接近攝像機(jī)還是更原理攝像機(jī)。

然后,MoSculp從所有幀中提取主體的前景蒙版,以細(xì)化初始深度圖。

原始視頻

估計(jì)模型

以下是該系統(tǒng)在實(shí)踐中的工作原理

將視頻加載到系統(tǒng)后,MoSculp將檢測到的關(guān)鍵點(diǎn)覆蓋在輸入幀上,并通過幾個隨機(jī)選擇的幀來驗(yàn)證。(內(nèi)置的校正工具可以讓用戶在必要時進(jìn)行調(diào)整。)在對“暫時不一致的檢測”進(jìn)行校正后,它會生成運(yùn)動雕塑,并將其加載到自定義界面中。

在MoSculp中,用戶可以在雕塑周圍導(dǎo)航,或使用3D打印機(jī)進(jìn)行打印。系統(tǒng)提供工具允許用戶自定義材料、身體部位、場景背景、光照條件和其他美學(xué)特征。

MoSculp的界面

目前,MoSculp只使用于單個主體的視頻,不過研究團(tuán)隊(duì)希望將其擴(kuò)展到多人。未來,他們認(rèn)為這個系統(tǒng)可以用來研究社會障礙、團(tuán)隊(duì)動力和人際互動等。

“舞蹈和高技能運(yùn)動通??雌饋硐?#39;移動的雕塑',但它們只能形成稍縱即逝的短暫形狀,”Adobe傳播負(fù)責(zé)人Courtney Brigham說。

“這項(xiàng)工作展示了如何利用動作,并將動作轉(zhuǎn)換為具有客觀運(yùn)動可視化的真實(shí)雕塑,為運(yùn)動員提供了一種分析他們的訓(xùn)練動作的方式,而且成本只需一臺運(yùn)動相機(jī)和一些計(jì)算時間?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2843

    瀏覽量

    107189
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29403

    瀏覽量

    267707
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46370

    瀏覽量

    236568

原文標(biāo)題:MIT谷歌伯克利三強(qiáng)聯(lián)手 ,AI創(chuàng)造超現(xiàn)實(shí)主義3D運(yùn)動雕塑

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    關(guān)于利用2D圖片利用投影的方法創(chuàng)建3D模型

    例如攝影機(jī)拍攝3張圖,利用第一張和第三張構(gòu)建出3D結(jié)構(gòu),測試第二張圖中的特征距離該3D模型中心的距離!
    發(fā)表于 10-08 22:21

    如何同時獲取2d圖像序列和相應(yīng)的3d點(diǎn)云?

    如何同時獲取2d圖像序列和相應(yīng)的3d點(diǎn)云?以上來自于谷歌翻譯以下為原文How to obtain the sequence of 2d image and corresponding
    發(fā)表于 11-13 11:25

    為什么3D2D模型不能相互轉(zhuǎn)換?

    AD17.1.5軟件,3D2D模型不能相互轉(zhuǎn)換,按3可以進(jìn)入3D模型,按
    發(fā)表于 09-20 05:35

    AD的3D模型繪制功能介紹

    完成后,2D圖如下:    2D圖  我們按下鍵盤上的數(shù)字3,即可查看繪制的3D模型了,如圖(4)?!   D(4)0805電阻
    發(fā)表于 01-14 16:48

    如何促使2D3D視覺檢測的性能成倍提升?

    本文介紹的三個應(yīng)用案例展示了業(yè)界上先進(jìn)的機(jī)器視覺軟件和及其圖像預(yù)處理技術(shù)如何促使2D3D視覺檢測的性能成倍提升。
    發(fā)表于 02-22 06:56

    基于深度學(xué)習(xí)和3D圖像處理的精密加工件外觀缺陷檢測系統(tǒng)

    點(diǎn)四:豐富的2D/3D圖像軟硬件接口,配合被測金屬五金加工件的形狀、輪廓精度擁有豐富的成像硬件、運(yùn)動機(jī)構(gòu)以及執(zhí)行機(jī)構(gòu)的選擇。 基于深度學(xué)習(xí)和3D
    發(fā)表于 03-08 13:59

    基于局部姿態(tài)先驗(yàn)的深度圖像3D人體運(yùn)動捕獲方法

    近鄰構(gòu)建局部姿態(tài)先驗(yàn)模型通過迭代優(yōu)化求解最大后驗(yàn)概率,實(shí)時地在線重建3D人體姿態(tài)序列,實(shí)驗(yàn)結(jié)果表明,該方法能夠?qū)崟r跟蹤重建出穩(wěn)定、準(zhǔn)確的3D
    發(fā)表于 01-03 14:33 ?0次下載

    2D3D視頻自動轉(zhuǎn)換系統(tǒng)

    研究和實(shí)現(xiàn)了一個基于OMAP3530的2D3D視頻自動轉(zhuǎn)換系統(tǒng),重點(diǎn)研究深度圖獲取和深度信息渲染等主要核心技術(shù)及其實(shí)現(xiàn)。該系統(tǒng)利用OMAP3530其特有的雙核結(jié)構(gòu),進(jìn)行系統(tǒng)優(yōu)化:由其ARM處理器
    發(fā)表于 03-06 14:20 ?1次下載
    <b class='flag-5'>2D</b>到<b class='flag-5'>3D</b>視頻自動轉(zhuǎn)換系統(tǒng)

    微軟新AI框架可在2D圖像上生成3D圖像

    已經(jīng)有不少機(jī)構(gòu)在將 2D 圖像轉(zhuǎn)換為 3D 形式的方面進(jìn)行了嘗試,包括 Facebook、Nvidia 等公司的 AI 研究實(shí)驗(yàn)室,或是類似 Threedy.
    的頭像 發(fā)表于 03-07 14:23 ?2995次閱讀

    阿里研發(fā)全新3D AI算法,2D圖片搜出3D模型

    AI技術(shù)的研究正在從2D走向更高難度的3D。12月3日,記者獲悉,阿里技術(shù)團(tuán)隊(duì)研發(fā)了全新3D AI
    的頭像 發(fā)表于 12-04 15:49 ?3458次閱讀

    谷歌發(fā)明的由2D圖像生成3D圖像技術(shù)解析

    谷歌發(fā)明的由2D圖像生成3D圖像的技術(shù),利用3D估計(jì)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 12-24 12:55 ?4674次閱讀
    谷歌發(fā)明的由<b class='flag-5'>2D</b><b class='flag-5'>圖像</b>生成<b class='flag-5'>3D</b><b class='flag-5'>圖像</b>技術(shù)解析

    華為基于AI技術(shù)實(shí)現(xiàn)3D圖像數(shù)字服務(wù)

    華為3D建模服務(wù)(3D Modeling Kit)是華為在圖形圖像領(lǐng)域又一技術(shù)開放,面向有3D模型、動畫制作等能力訴求的應(yīng)用開發(fā)者,基于
    的頭像 發(fā)表于 08-12 14:50 ?4838次閱讀

    3d人臉識別和2d人臉識別的區(qū)別

    首先是3d人臉識別和2d人臉識別圖像數(shù)據(jù)獲取不同。3D人臉識別是以3D攝像頭立體成像,而2D是以
    發(fā)表于 02-05 16:00 ?4.1w次閱讀

    2D3D視覺技術(shù)的比較

    作為一個多年經(jīng)驗(yàn)的機(jī)器視覺工程師,我將詳細(xì)介紹2D3D視覺技術(shù)的不同特點(diǎn)、應(yīng)用場景以及它們能夠解決的問題。在這個領(lǐng)域內(nèi),2D3D視覺技術(shù)是實(shí)現(xiàn)自動化和智能制造的關(guān)鍵技術(shù),它們在工業(yè)
    的頭像 發(fā)表于 12-21 09:19 ?1005次閱讀

    一文了解3D視覺和2D視覺的區(qū)別

    一文了解3D視覺和2D視覺的區(qū)別 3D視覺和2D視覺是兩種不同的視覺模式,其區(qū)別主要體現(xiàn)在立體感、深度感和逼真度上。本文將詳細(xì)闡述這些區(qū)別,
    的頭像 發(fā)表于 12-25 11:15 ?2626次閱讀