0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AlphaPose升級(jí)了!一個(gè)高效的算法來(lái)解決擁擠人群中的姿態(tài)估計(jì)問(wèn)題

DPVg_AI_era ? 來(lái)源:lp ? 2019-03-05 09:26 ? 次閱讀

AlphaPose升級(jí)了!上海交大MVIG組(盧策吾團(tuán)隊(duì))構(gòu)建了CrowdPose數(shù)據(jù)集,用來(lái)衡量算法在擁擠場(chǎng)景中的性能。同時(shí)提出了一個(gè)高效的算法來(lái)解決擁擠人群中的姿態(tài)估計(jì)問(wèn)題,實(shí)驗(yàn)結(jié)果遠(yuǎn)高于當(dāng)前最好的算法。

AlphaPose升級(jí)了!



擁擠人群場(chǎng)景下的AlphaPose

這個(gè)實(shí)時(shí)多人姿態(tài)估計(jì)系統(tǒng),現(xiàn)在可以處理最具挑戰(zhàn)的擁擠人群場(chǎng)景了:

上海交大MVIG組(盧策吾團(tuán)隊(duì))建了一個(gè)新的數(shù)據(jù)集——CrowdPose,用來(lái)衡量算法在擁擠場(chǎng)景中的性能;

同時(shí)提出了一個(gè)高效的算法來(lái)解決擁擠人群中的姿態(tài)估計(jì)問(wèn)題:相比OpenPose提升18mAP、相比Mask-RCNN提升8mAP。

論文已被CVPR2019接收。

論文鏈接:

https://arxiv.org/abs/1812.00324

代碼鏈接:

https://github.com/MVIG-SJTU/AlphaPose

CrowdPose——擁擠人群姿態(tài)估計(jì)數(shù)據(jù)集

為了衡量人體姿態(tài)估計(jì)算法的性能,學(xué)術(shù)界與工業(yè)界建立了越來(lái)越多的公開(kāi)數(shù)據(jù)集,如MPII,MSCOCO和AI Challenger。然而,這些數(shù)據(jù)集的圖片通常采集自日常的生活場(chǎng)景,缺乏擁擠人群場(chǎng)景的數(shù)據(jù)。

主流數(shù)據(jù)集的擁擠場(chǎng)景分布如圖1所示。對(duì)于由數(shù)據(jù)驅(qū)動(dòng)的深度學(xué)習(xí)方法來(lái)說(shuō),數(shù)據(jù)集的分布不均衡,意味著算法性能的不均衡。

圖1 主流公開(kāi)數(shù)據(jù)集于CrowdPose數(shù)據(jù)集的擁擠場(chǎng)景數(shù)據(jù)分布。三個(gè)主流數(shù)據(jù)集的數(shù)據(jù)中,非擁擠數(shù)據(jù)占據(jù)了絕大部分比例,而CrowdPose數(shù)據(jù)集有著均勻的數(shù)據(jù)分布。

隨著學(xué)術(shù)界對(duì)人體姿態(tài)研究的深入,算法追求像素級(jí)的精度,簡(jiǎn)單場(chǎng)景下的性能已經(jīng)逐步逼近人類(lèi)的精度,但在擁擠場(chǎng)景中往往會(huì)失效,如圖2所示。

圖2 隨著擁擠程度的加劇,現(xiàn)有開(kāi)源系統(tǒng)的性能急劇下降。相較于非擁擠的情況,擁擠時(shí)算法性能最多下降了20mAP。

針對(duì)這樣的情況,上海交大MVIG組的研究者開(kāi)源了CrowdPose數(shù)據(jù)集。CrowdPose數(shù)據(jù)集中的圖片,有著均勻分布的擁擠程度。既可以評(píng)估算法在日常非擁擠情況下的表現(xiàn),也可以評(píng)估其在極度擁擠時(shí)的性能。

目前,數(shù)據(jù)集開(kāi)源了2萬(wàn)張圖片,評(píng)估工具也已經(jīng)上線。在未來(lái)的幾個(gè)月時(shí)間內(nèi),研究者將會(huì)不斷擴(kuò)大數(shù)據(jù)的規(guī)模,開(kāi)源一個(gè)更大的數(shù)據(jù)集。

實(shí)時(shí)全局競(jìng)爭(zhēng)匹配算法

在擁擠人群的場(chǎng)景下,傳統(tǒng)的二步法模型往往會(huì)失效。主要原因在于:人群過(guò)于密集,重合程度太高,每個(gè)人的位置難以用人體檢測(cè)框表示。

圖3 人體檢測(cè)框難以表達(dá)人的位置。

研究者們提出了一個(gè)全局競(jìng)爭(zhēng)匹配算法,減少了姿態(tài)估計(jì)模型對(duì)于人體框的依賴(lài),同時(shí)提高了模型對(duì)于復(fù)雜人體場(chǎng)景的魯棒性,在擁擠場(chǎng)景中的表現(xiàn)超越了現(xiàn)有的方法。

圖4 本研究中的全局競(jìng)爭(zhēng)匹配算法概覽。模型對(duì)于每個(gè)檢測(cè)到的人體框輸出一系列候選關(guān)鍵點(diǎn)。人體實(shí)例與關(guān)鍵點(diǎn)實(shí)例構(gòu)建成一個(gè)稀疏圖模型。通過(guò)求解稀疏圖模型的最佳匹配問(wèn)題,可得到全局最優(yōu)的人體姿態(tài)估計(jì)方案,對(duì)密集擁擠的場(chǎng)景有很強(qiáng)的魯棒性。

研究者們?cè)O(shè)計(jì)了一個(gè)關(guān)節(jié)點(diǎn)候選損失函數(shù),通過(guò)控制模型輸出響應(yīng)程度不同的多峰值熱度圖,在人體框不準(zhǔn)確的情況下,模型盡可能地輸出候選關(guān)節(jié)點(diǎn)可能的位置。

在得到每個(gè)人體框的候選關(guān)節(jié)點(diǎn)后,通過(guò)聚類(lèi)與鏈接,消除冗余結(jié)果的同時(shí),構(gòu)建出一個(gè)人體實(shí)例-候選關(guān)節(jié)的圖模型。該圖模型表征了人體實(shí)例與每個(gè)關(guān)節(jié)點(diǎn)之間的連接關(guān)系與概率。

借助此模型,人體姿態(tài)估計(jì)問(wèn)題可轉(zhuǎn)化成圖模型中的最佳匹配問(wèn)題。由于人體姿態(tài)問(wèn)題的特殊,該圖模型具有很強(qiáng)的稀疏性,經(jīng)過(guò)研究者們的分析,優(yōu)化匹配問(wèn)題的時(shí)間復(fù)雜度與傳統(tǒng)的NMS算法相當(dāng)。

該方法由于建立了一個(gè)全局的圖模型,在匹配過(guò)程中考慮到了整體的連接方式,因此能很好地改善了二步法中缺乏全局視野的不足。

姿態(tài)估計(jì)各場(chǎng)景性能大幅提升

在實(shí)驗(yàn)中,研究者們對(duì)比了該算法與其他開(kāi)源系統(tǒng)與算法之間的性能。

在CrowdPose數(shù)據(jù)集中,比當(dāng)前最好的算法提升了5.2mAP。除此之外,在極度擁擠的子集中,提升了6.2mAP。相較于OpenPose和Detectron(Mask R-CNN)等姿態(tài)估計(jì)開(kāi)源系統(tǒng),性能提升的同時(shí),運(yùn)行速度快了2到3倍。

表1 在CrowdPose數(shù)據(jù)集上的定量對(duì)比實(shí)驗(yàn)

表2 三個(gè)場(chǎng)景子集中的性能評(píng)估與運(yùn)行速度對(duì)比(簡(jiǎn)單、一般、擁擠)。

本文的方法分?jǐn)?shù)提升的同時(shí),運(yùn)行速度也大大增強(qiáng)。

未來(lái)方向

論文中,研究者們提出了一種新的競(jìng)爭(zhēng)匹配模型,以解決擁擠場(chǎng)景的人體姿態(tài)檢測(cè)問(wèn)題。接下來(lái),研究者們會(huì)優(yōu)化競(jìng)爭(zhēng)匹配模型,對(duì)其他形式的擁擠檢測(cè)問(wèn)題(如擁擠實(shí)例分割)開(kāi)展進(jìn)一步研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:AlphaPose升級(jí)!上海交大盧策吾團(tuán)隊(duì)開(kāi)源密集人群姿態(tài)估計(jì)代碼

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于PoseDiffusion相機(jī)姿態(tài)估計(jì)方法

    的約束結(jié)合在起,因此能夠在稀疏視圖和密集視圖狀態(tài)下以高精度重建相機(jī)位置,他們?cè)诟怕蕯U(kuò)散框架內(nèi)公式化了SfM問(wèn)題,對(duì)給定輸入圖像的相機(jī)姿態(tài)的條件分布進(jìn)行建模,用Diffusion模型來(lái)輔助進(jìn)行
    的頭像 發(fā)表于 07-23 15:22 ?1211次閱讀
    基于PoseDiffusion相機(jī)<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>方法

    無(wú)人機(jī)設(shè)計(jì)姿態(tài)檢測(cè)算法姿態(tài)控制算法有什么區(qū)別 ?

    無(wú)人機(jī)設(shè)計(jì)姿態(tài)檢測(cè)算法、姿態(tài)控制算法有什么區(qū)別 ?推薦課程:張飛四旋翼飛行器視頻套件,76小時(shí)吃透四軸
    發(fā)表于 07-14 12:12

    基于無(wú)跡卡爾曼濾波的四旋翼無(wú)人飛行器姿態(tài)估計(jì)算法_朱巖

    基于無(wú)跡卡爾曼濾波的四旋翼無(wú)人飛行器姿態(tài)估計(jì)算法_朱巖
    發(fā)表于 06-04 08:48

    四軸在飛行的控制過(guò)程可以用什么算法來(lái)控制姿態(tài)?

    四軸在飛行的控制過(guò)程可以用什么算法來(lái)控制?姿態(tài)
    發(fā)表于 10-12 07:03

    高效的基音估計(jì)算法

    分析已有的些基音估計(jì)算法,對(duì)比其優(yōu)缺點(diǎn),提出種可大大提高計(jì)算速度的高效基音估計(jì)算法。該算法
    發(fā)表于 12-31 17:21 ?0次下載

    基于光流計(jì)算的異常擁擠行為檢測(cè)算法

    面向人群場(chǎng)景異常擁擠行為檢測(cè),提出基于光流計(jì)算的檢測(cè)方法。該方法首先采用光流微粒矢量場(chǎng)提取人群運(yùn)動(dòng)特征;然后基于社會(huì)力模型計(jì)算光流微粒之間的相互作用力;最后對(duì)相互作用力進(jìn)行直方圖熵值
    發(fā)表于 11-17 16:40 ?5次下載

    種改進(jìn)擴(kuò)展卡爾曼的四旋翼姿態(tài)估計(jì)算法

    為了提高標(biāo)準(zhǔn)擴(kuò)展卡爾曼姿態(tài)估計(jì)算法的精確度和快速性,將運(yùn)動(dòng)加速度抑制的動(dòng)態(tài)步長(zhǎng)梯度下降算法融入擴(kuò)展卡爾曼,提出種改進(jìn)擴(kuò)展卡爾曼的四旋翼
    發(fā)表于 12-04 11:31 ?2次下載
    <b class='flag-5'>一</b>種改進(jìn)擴(kuò)展卡爾曼的四旋翼<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)算法</b>

    AlphaPose個(gè)實(shí)時(shí)多人姿態(tài)估計(jì)系統(tǒng)

    新系統(tǒng)采用 PyTorch 框架,在姿態(tài)估計(jì)(Pose Estimation)標(biāo)準(zhǔn)測(cè)試集COCO validation set上,達(dá)到 71mAP的精度(比 OpenPose 相對(duì)提升17
    的頭像 發(fā)表于 09-08 09:11 ?8302次閱讀

    3D姿態(tài)估計(jì) 時(shí)序卷積+半監(jiān)督訓(xùn)練

    在這項(xiàng)工作,視頻的3D姿態(tài)可以通過(guò)全卷積模型來(lái)估計(jì),具體是在二維關(guān)鍵點(diǎn)上通過(guò)空洞時(shí)間卷積的模型得到3D
    的頭像 發(fā)表于 12-08 22:54 ?903次閱讀

    基于注意力機(jī)制的狹小空間人群擁擠度分析方法

    種基于注意力機(jī)制的狹小空間人群擁擠度分析方法,旨在量化人群,通過(guò)卷積神經(jīng)網(wǎng)絡(luò)回歸擁擠率分析當(dāng)前空間內(nèi)的
    發(fā)表于 03-22 11:24 ?7次下載
    基于注意力機(jī)制的狹小空間<b class='flag-5'>人群</b><b class='flag-5'>擁擠</b>度分析方法

    個(gè)破紀(jì)錄的人群計(jì)數(shù)算法!——使用深度學(xué)習(xí)構(gòu)建一個(gè)人群計(jì)數(shù)模型

    人群科學(xué)家們可以通過(guò)對(duì)圖片區(qū)域劃分,計(jì)算圖像某些部分的人數(shù),然后外推得出估計(jì)值。這種方法是現(xiàn)在較為普遍的方式,但是也存在誤差。幾十年來(lái),我們不得不依靠粗略的指標(biāo)來(lái)
    的頭像 發(fā)表于 04-01 14:42 ?8697次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>個(gè)</b>破紀(jì)錄的<b class='flag-5'>人群</b>計(jì)數(shù)<b class='flag-5'>算法</b>!——使用深度學(xué)習(xí)構(gòu)建<b class='flag-5'>一個(gè)人群</b>計(jì)數(shù)模型

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)算法

    ,更能充分地提取圖像信息,獲取更具有魯棒性的特征,因此基于深度學(xué)習(xí)的方法已成為二維人體姿態(tài)估計(jì)算法研究的主流方向。然而,深度學(xué)習(xí)尚在發(fā)展,仍存在訓(xùn)練規(guī)模大等問(wèn)題,研究者們主要從設(shè)絡(luò)以及訓(xùn)練方式入手對(duì)人體
    發(fā)表于 04-27 16:16 ?7次下載
    基于深度學(xué)習(xí)的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)算法</b>

    基于編解碼殘差的人體姿態(tài)估計(jì)方法

    自下而上方法中最困難的步——關(guān)鍵點(diǎn)關(guān)聯(lián)問(wèn)題,文中提出了種輕量高效姿態(tài)估計(jì)匹配網(wǎng)絡(luò)。該網(wǎng)絡(luò)在編碼階段將基礎(chǔ) Resnet模抉加以改進(jìn)得到
    發(fā)表于 05-28 16:35 ?2次下載

    iNeRF對(duì)RGB圖像進(jìn)行類(lèi)別級(jí)別的物體姿態(tài)估計(jì)

    我們提出了iNeRF,個(gè)通過(guò) “反轉(zhuǎn) ”神經(jīng)輻射場(chǎng)(NeRF)來(lái)進(jìn)行無(wú)網(wǎng)格姿勢(shì)估計(jì)的框架。NeRFs已經(jīng)被證明對(duì)合成真實(shí)世界場(chǎng)景或物體的逼真的新視圖非常有效。在這項(xiàng)工作
    的頭像 發(fā)表于 08-10 11:37 ?1393次閱讀

    基于飛控的姿態(tài)估計(jì)算法作用及原理

    ? 姿態(tài)估計(jì)的作用? 姿態(tài)估計(jì)是飛控算法個(gè)基礎(chǔ)部
    發(fā)表于 11-13 11:00 ?848次閱讀
    基于飛控的<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)算法</b>作用及原理