0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

FAIR和INRIA的合作提出人體姿勢(shì)估計(jì)新模型,適用于人體3D表面構(gòu)建

DPVg_AI_era ? 2018-02-05 11:21 ? 次閱讀

FAIR和INRIA的合作研究提出一個(gè)在Mask-RCNN基礎(chǔ)上改進(jìn)的密集人體姿態(tài)評(píng)估模型DensePose-RCNN,適用于人體3D表面構(gòu)建等,效果很贊。并且提出一個(gè)包含50K標(biāo)注圖像的人體姿態(tài)COCO數(shù)據(jù)集,即將開(kāi)源。

密集人體姿勢(shì)估計(jì)是指將一個(gè)RGB圖像中的所有人體像素點(diǎn)映射到人體的3D表面。

我們介紹了DensePose-COCO數(shù)據(jù)集,這是一個(gè)大型ground-truth數(shù)據(jù)集,在50000張COCO的圖像上手工標(biāo)注了圖像-人體表面(image-to-surface)的對(duì)應(yīng)點(diǎn)。

我們提出了DensePose-RCNN架構(gòu),這是Mask-RCNN的一個(gè)變體,以每秒多幀的速度在每個(gè)人體區(qū)域內(nèi)密集地回歸特定部位的UV坐標(biāo)。

DensePose-COCO數(shù)據(jù)集

我們利用人工標(biāo)注建立從二維圖像到人體表面表示的密集對(duì)應(yīng)。如果用常規(guī)方法,需要通過(guò)旋轉(zhuǎn)來(lái)操縱表明,導(dǎo)致效率低下。相反,我們構(gòu)建了一個(gè)包含兩個(gè)階段的標(biāo)注流程,從而高效地收集到圖像-表面的對(duì)應(yīng)關(guān)系的標(biāo)注。

如下所示,在第一階段,我們要求標(biāo)注者劃定與可見(jiàn)的、語(yǔ)義上定義的身體部位相對(duì)應(yīng)的區(qū)域。我們指導(dǎo)標(biāo)注者估計(jì)被衣服遮擋住的身體部分,因此,比如說(shuō)穿著一條大裙子也不會(huì)使隨后的對(duì)應(yīng)標(biāo)注復(fù)雜化。

在第二階段,我們用一組大致等距的點(diǎn)對(duì)每個(gè)部位的區(qū)域進(jìn)行采樣,并要求注釋者將這些點(diǎn)與表面相對(duì)應(yīng)。為了簡(jiǎn)化這個(gè)任務(wù),我們通過(guò)提供六個(gè)相同身體部分的預(yù)渲染視圖來(lái)展開(kāi)身體部位的表面,并允許用戶在其中任何一個(gè)視圖上放置標(biāo)志。這允許注釋者通過(guò)從在六個(gè)選項(xiàng)中選擇一個(gè),而不用手動(dòng)旋轉(zhuǎn)表面來(lái)選擇最方便的視點(diǎn)。

我們?cè)跀?shù)據(jù)收集過(guò)程中使用了SMPL模型和SURREAL textures。

兩個(gè)階段的標(biāo)注過(guò)程使我們能夠非常有效地收集高度準(zhǔn)確的對(duì)應(yīng)數(shù)據(jù)。部位分割(part segmentation)和對(duì)應(yīng)標(biāo)注( correspondence annotation)這兩個(gè)任務(wù)基本是是同時(shí)進(jìn)行的,考慮到后一任務(wù)更具挑戰(zhàn)性,這很令人驚訝。我們收集了50000人的注釋,收集了超過(guò)500萬(wàn)個(gè)人工標(biāo)注的對(duì)應(yīng)信息。以下是在我們的驗(yàn)證集中圖像注釋的可視化:圖像(左),U(中)和V(右)是收集的注釋點(diǎn)的值。

DensePose-RCNN系統(tǒng)

與DenseReg類似,我們通過(guò)劃分表面來(lái)查找密集對(duì)應(yīng)。對(duì)于每個(gè)像素,需要確定:

它傾向于屬于哪個(gè)表面部位;

它對(duì)應(yīng)的部位的2D參數(shù)化的位置。

下圖右邊說(shuō)明了對(duì)表面的劃分和“與一個(gè)部位上的點(diǎn)的對(duì)應(yīng)”。

FAIR和INRIA的合作提出人體姿勢(shì)估計(jì)新模型,適用于人體3D表面構(gòu)建

我們采用具有特征金字塔網(wǎng)絡(luò)( FPN)的Mask-RCNN結(jié)構(gòu),以及ROI-Align池化以獲得每個(gè)選定區(qū)域內(nèi)的密集部位標(biāo)簽和坐標(biāo)。

如下圖所示,我們?cè)赗OI-pooling的基礎(chǔ)上引入一個(gè)全卷積網(wǎng)絡(luò),目的是以下兩個(gè)任務(wù):

生成每像素的分類結(jié)果以選擇表面部位

對(duì)每個(gè)部位回歸局部坐標(biāo)

在推理過(guò)程,我們的系統(tǒng)使用GTX1080 GPU在320x240的圖像上以25fps的速度運(yùn)行,在800x1100的圖像上以4-5fps的速度運(yùn)行。

DensePose-RCNN系統(tǒng)可以直接使用注釋點(diǎn)作為監(jiān)督。但是,我們通過(guò)在原本未標(biāo)注的位置上“修補(bǔ)”監(jiān)督信號(hào)的值進(jìn)行取得了更好的結(jié)果。為了達(dá)到這個(gè)目的,我們采用一種基于學(xué)習(xí)的方法,首先訓(xùn)練一個(gè)“教師”網(wǎng)絡(luò):一個(gè)完全卷積神經(jīng)網(wǎng)絡(luò)(如下圖),它重新構(gòu)造了給定圖像的ground-truth值和segmentation mask。

我們使用級(jí)聯(lián)策略(cascading strategies)進(jìn)一步提高了系統(tǒng)的性能。通過(guò)級(jí)聯(lián),我們利用來(lái)自相關(guān)任務(wù)的信息,例如已經(jīng)被Mask-RCNN架構(gòu)成功解決的關(guān)鍵點(diǎn)估計(jì)和實(shí)例分割。這使我們能夠利用任務(wù)協(xié)同和不同監(jiān)督來(lái)源的互補(bǔ)優(yōu)勢(shì)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2843

    瀏覽量

    107178
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    794

    瀏覽量

    58303
  • INRIA
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    6627

原文標(biāo)題:效果驚艷!FAIR提出人體姿勢(shì)估計(jì)新模型,升級(jí)版Mask-RCNN

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【愛(ài)芯派 Pro 開(kāi)發(fā)板試用體驗(yàn)】人體姿態(tài)估計(jì)模型部署前期準(zhǔn)備

    Bottom-up類型的。 3、Openpose/lightweight openpose模型 首先要用到的是Openpose模型,這應(yīng)該是最有名的人體姿態(tài)
    發(fā)表于 01-01 01:04

    請(qǐng)問(wèn)有適用于測(cè)人體溫度的紅外溫度傳感器嗎

    適用于測(cè)人體溫度?要求有足夠的精度,最好有信號(hào)處理模塊
    發(fā)表于 03-07 12:01

    基于局部姿態(tài)先驗(yàn)的深度圖像3D人體運(yùn)動(dòng)捕獲方法

    近鄰并構(gòu)建局部姿態(tài)先驗(yàn)模型通過(guò)迭代優(yōu)化求解最大后驗(yàn)概率,實(shí)時(shí)地在線重建3D人體姿態(tài)序列,實(shí)驗(yàn)結(jié)果表明,該方法能夠?qū)崟r(shí)跟蹤重建出穩(wěn)定、準(zhǔn)確的3D
    發(fā)表于 01-03 14:33 ?0次下載

    基于遺傳優(yōu)化的自適應(yīng)凸松弛人體姿勢(shì)估計(jì)

    針對(duì)凸松弛方法在解決三維人體姿勢(shì)估計(jì)的問(wèn)題時(shí)存在迭代次數(shù)較多、準(zhǔn)確度不高的不足,提出一種基于遺傳優(yōu)化的自適應(yīng)凸松弛人體
    發(fā)表于 01-16 16:41 ?1次下載

    特倫托大學(xué)與Inria合作:使用GAN生成人體的新姿勢(shì)圖像

    使用GAN(對(duì)抗生成網(wǎng)絡(luò))生成人體的新姿勢(shì)圖像。研究人員提出的可變形跳躍連接和最近鄰損失函數(shù),更好地捕捉了局部的紋理細(xì)節(jié),緩解了之前研究生成圖像模糊的問(wèn)題,生成了更可信、質(zhì)量更好的圖像。
    的頭像 發(fā)表于 01-29 16:34 ?9485次閱讀
    特倫托大學(xué)與<b class='flag-5'>Inria</b><b class='flag-5'>合作</b>:使用GAN生成<b class='flag-5'>人體</b>的新<b class='flag-5'>姿勢(shì)</b>圖像

    3D感應(yīng)技術(shù)TOF占用檢測(cè)人體跟蹤和人數(shù)統(tǒng)計(jì)

    3D time-of-flight 概覽:3D TOF占用檢測(cè)人體跟蹤和人數(shù)統(tǒng)計(jì)
    的頭像 發(fā)表于 08-10 00:02 ?7557次閱讀

    基于DensePose的姿勢(shì)轉(zhuǎn)換系統(tǒng),僅根據(jù)一張輸入圖像和目標(biāo)姿勢(shì)

    DensePose 是 Facebook 研究員 Natalia Neverova、Iasonas Kokkinos 和法國(guó) INRIA 的 R?za Alp Guler 開(kāi)發(fā)的一個(gè)令人驚嘆的人體實(shí)時(shí)姿勢(shì)識(shí)別系統(tǒng),它在 2
    的頭像 發(fā)表于 09-24 09:21 ?1.1w次閱讀

    3D打印技術(shù)未來(lái)有望打印出人體器官 以促進(jìn)醫(yī)學(xué)研究的發(fā)展

    據(jù)報(bào)道,俄醫(yī)療企業(yè)Invitro稱,俄羅斯宇航員利用國(guó)際空間站上的3D生物打印機(jī),設(shè)法在零重力下打印出了實(shí)驗(yàn)鼠的甲狀腺。該公司表示,未來(lái)甚至有望打印出人體器官,以促進(jìn)醫(yī)學(xué)研究的發(fā)展。
    發(fā)表于 12-21 09:07 ?1785次閱讀

    先臨三維攜手TechMed 3D出人體3D掃描一體化解決方案

    日前,先臨三維與TechMed 3D達(dá)成合作,雙方將基于彼此研發(fā)上的優(yōu)勢(shì),共同推出人體3D掃描一體化解決方案。人體
    發(fā)表于 06-11 09:58 ?923次閱讀
    先臨三維攜手TechMed <b class='flag-5'>3D</b>推<b class='flag-5'>出人體</b><b class='flag-5'>3D</b>掃描一體化解決方案

    適用于3D運(yùn)動(dòng)分析的模型

      對(duì)系統(tǒng)的運(yùn)動(dòng)進(jìn)行精確建??赡苁且患值氖虑?,但通過(guò)構(gòu)建一個(gè)穩(wěn)健的模型,我們可以更快地響應(yīng)更廣泛的問(wèn)題。如果我們希望制作一個(gè)功能強(qiáng)大、平滑且優(yōu)雅的穩(wěn)定運(yùn)動(dòng)系統(tǒng),那么我們必須決定哪種模型更合適。作為工程師,我們必須認(rèn)識(shí)到常見(jiàn)
    發(fā)表于 06-29 11:12 ?989次閱讀
    <b class='flag-5'>適用于</b><b class='flag-5'>3D</b>運(yùn)動(dòng)分析的<b class='flag-5'>模型</b>

    Yoga AI從單個(gè)圖像進(jìn)行3D姿勢(shì)估計(jì)

    電子發(fā)燒友網(wǎng)站提供《Yoga AI從單個(gè)圖像進(jìn)行3D姿勢(shì)估計(jì).zip》資料免費(fèi)下載
    發(fā)表于 10-26 11:23 ?0次下載
    Yoga AI從單個(gè)圖像進(jìn)行<b class='flag-5'>3D</b><b class='flag-5'>姿勢(shì)</b><b class='flag-5'>估計(jì)</b>

    CVPR2023:IDEA與清華提出首個(gè)一階段3D全身人體網(wǎng)格重建算法

    三維全身人體網(wǎng)格重建(3D Whole-Body Mesh Recovery)是人類行為建模的一個(gè)重要環(huán)節(jié),用于從單目圖像中估計(jì)出人體姿態(tài)(
    的頭像 發(fā)表于 04-07 09:56 ?1066次閱讀

    AI深度相機(jī)-人體姿態(tài)估計(jì)應(yīng)用

    構(gòu)建一個(gè)可以檢測(cè)、分析和響應(yīng)人體運(yùn)動(dòng)的應(yīng)用程序和系統(tǒng)。代碼我們的演示視頻如下,該視頻展示了這項(xiàng)技術(shù)的實(shí)際功能。您可以看到使用虹科AI深度相機(jī)實(shí)現(xiàn)人體姿勢(shì)
    的頭像 發(fā)表于 07-31 17:42 ?933次閱讀
    AI深度相機(jī)-<b class='flag-5'>人體</b>姿態(tài)<b class='flag-5'>估計(jì)</b>應(yīng)用

    3D人體生成模型HumanGaussian實(shí)現(xiàn)原理

    3D 生成領(lǐng)域,根據(jù)文本提示創(chuàng)建高質(zhì)量的 3D 人體外觀和幾何形狀對(duì)虛擬試穿、沉浸式遠(yuǎn)程呈現(xiàn)等應(yīng)用有深遠(yuǎn)的意義。傳統(tǒng)方法需要經(jīng)歷一系列人工制作的過(guò)程,如 3D
    的頭像 發(fā)表于 12-20 16:37 ?1413次閱讀
    <b class='flag-5'>3D</b><b class='flag-5'>人體</b>生成<b class='flag-5'>模型</b>HumanGaussian實(shí)現(xiàn)原理

    多尺度浸入式3D打印策略,用于人體組織和器官的精準(zhǔn)制造

    生物3D打印技術(shù)被認(rèn)為是實(shí)現(xiàn)復(fù)雜人體組織和器官構(gòu)建的最有前景的技術(shù)方案之一。近年來(lái),浸入式墨水書寫技術(shù)作為生物3D打印的關(guān)鍵技術(shù)分支而備受矚目。
    的頭像 發(fā)表于 04-20 11:43 ?841次閱讀