0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于增強(qiáng)通道和空間信息的人體姿態(tài)估計(jì)網(wǎng)絡(luò)

WpOh_rgznai100 ? 來源:lq ? 2019-07-18 11:19 ? 次閱讀

【導(dǎo)讀】6 月 16--20 日,計(jì)算機(jī)視覺與模式識(shí)別領(lǐng)域頂會(huì) CVPR 2019 在美國(guó)長(zhǎng)灘舉行。每年的 CVPR 盛會(huì)除了精彩的論文分享、Workshop 與 Tutorial,還會(huì)舉辦多場(chǎng)涵蓋計(jì)算機(jī)視覺各子領(lǐng)域的專項(xiàng)比賽,競(jìng)爭(zhēng)亦是非常激烈。在此次人體姿態(tài)估計(jì)和人體分割比賽中,字節(jié)跳動(dòng)的兩個(gè)團(tuán)隊(duì)榜上有名,收獲兩個(gè)冠軍、一個(gè)亞軍。

關(guān)于 LIP 競(jìng)賽

“Look Into Person”(以下簡(jiǎn)稱 LIP )國(guó)際競(jìng)賽擁有大規(guī)模的人體姿態(tài)圖像數(shù)據(jù)庫(kù)、公平嚴(yán)格的評(píng)審標(biāo)準(zhǔn)以及國(guó)際性的競(jìng)賽影響力。本屆 LIP 國(guó)際競(jìng)賽吸引了超過 75 支隊(duì)伍參加,包括加州伯克利大學(xué)、NHN、悉尼科技大學(xué)、東南大學(xué)、上海交通大學(xué)、中國(guó)電子科技大學(xué)、香港中文大學(xué)等全球高校以及三星、字節(jié)跳動(dòng)、百度、京東等科技企業(yè)的人工智能研究院機(jī)構(gòu);包括五個(gè)競(jìng)賽任務(wù),分別是:

  • 單人人體解析分割( the single-person human parsing)

  • 單人人體姿態(tài)估計(jì)( the single-person pose estimation)

  • 多人人體解析(the multi-person human parsing)

  • 基于視頻的多人人體解析(multi-person video parsing, multi-person pose estimation benchmark)

  • 基于圖像的服裝試穿(clothes virtual try-on benchmark)

今年的 LIP 國(guó)際競(jìng)賽上,字節(jié)跳動(dòng)人工智能實(shí)驗(yàn)室拿下了兩個(gè)國(guó)際冠軍和一個(gè)國(guó)際亞軍。由字節(jié)跳動(dòng)和東南大學(xué)組成的團(tuán)隊(duì)、以及肖斌帶領(lǐng)的字節(jié)跳動(dòng)團(tuán)隊(duì)并列單人人體姿態(tài)估計(jì)比賽的國(guó)際冠軍;同時(shí),字節(jié)跳動(dòng)和東南大學(xué)組成的團(tuán)隊(duì)同時(shí)還獲得了單人人體分割賽道的國(guó)際亞軍。

在單人人體姿態(tài)估計(jì)比賽中,兩個(gè)隊(duì)伍都刷新了去年的最好成績(jī)。其中,由字節(jié)跳動(dòng)和東南大學(xué)組成的團(tuán)隊(duì)提出了基于增強(qiáng)通道和空間信息的人體姿態(tài)估計(jì)網(wǎng)絡(luò),參考 CVPR 2019 論文《Multi-Person Pose Estimation with Enhanced Channel-wise and Spatial Information》。

傳送門:

https://arxiv.org/abs/1905.03466

肖斌團(tuán)隊(duì)則提出利用高分辨率網(wǎng)絡(luò)(HRNet)來解決人體姿態(tài)估計(jì)問題,參考 CVPR 2019 論文《Deep High-Resolution Representation Learning for Human Pose Estimation》。目前該論文的算法已經(jīng)在 Gituhub 上開源,放地址:

傳送門:

https://github.com/leoxiaobin/deep-high-resolution-net.pytorch

下面為大家詳細(xì)介紹兩支冠軍團(tuán)隊(duì)的工作。

技術(shù)解讀(一)

字節(jié)跳動(dòng)和東南大學(xué)組成的團(tuán)隊(duì)提出了基于增強(qiáng)通道和空間信息的人體姿態(tài)估計(jì)網(wǎng)絡(luò),論文《Multi-Person Pose Estimation with Enhanced Channel-wise and Spatial Information》的一作蘇凱是來自東南大學(xué)模式識(shí)別與挖掘?qū)嶒?yàn)室(PALM)碩士生三年級(jí),師從東南大學(xué)耿新教授。目前在字節(jié)跳動(dòng)人工智能實(shí)驗(yàn)室實(shí)習(xí),導(dǎo)師是喻冬東博士(共同一作)和王長(zhǎng)虎博士。

  • 介紹

人體姿態(tài)估計(jì)旨在定位出圖片中人的關(guān)鍵身體部位,例如手臂、軀干以及面部的關(guān)鍵點(diǎn)等等。對(duì)于行為識(shí)別、人體再識(shí)別等諸多計(jì)算機(jī)任務(wù)來說,人體姿態(tài)估計(jì)是一項(xiàng)基礎(chǔ)且極具挑戰(zhàn)的課題。由于人與人之間的密切交互、遮擋以及不同尺度人體等因素影響,獲取準(zhǔn)確的定位結(jié)果仍然具有困難。

  • 創(chuàng)新點(diǎn)

首先,在卷積神經(jīng)網(wǎng)絡(luò)中,高層特征往往具有更大的感受視野,所以它們對(duì)于復(fù)雜場(chǎng)景下的遮擋點(diǎn)、不可見點(diǎn)的推斷更有幫助。另一方面,卷積神經(jīng)網(wǎng)絡(luò)的低層特征往往具有更大的分辨率,所以它們對(duì)于關(guān)鍵點(diǎn)的精細(xì)調(diào)整更加有效。然而,在現(xiàn)實(shí)場(chǎng)景中,高低層特征之間權(quán)衡往往復(fù)雜多變。因此,論文提出通道交流模塊來促進(jìn)不同分辨率層特征之間的跨通道信息交流。通道交流模塊的目的是通過網(wǎng)絡(luò)自學(xué)習(xí)來校準(zhǔn)高低層特征之間的相互補(bǔ)充和強(qiáng)化。

其次,特征融合的過程是動(dòng)態(tài)多變的,融合后的特征往往也存在許多冗余。網(wǎng)絡(luò)中那些對(duì)姿態(tài)估計(jì)任務(wù)更加有效的特征信息應(yīng)該被自適應(yīng)地突顯出來。因此,論文提出基于空間和通道注意力機(jī)制的殘差模塊,自適應(yīng)地從空間和通道兩個(gè)維度增強(qiáng)剛剛?cè)诤虾蟮慕鹱炙卣餍畔ⅰ?/p>

  • 實(shí)驗(yàn)

論文采用人體關(guān)鍵點(diǎn)檢測(cè)的最權(quán)威數(shù)據(jù)集之一 MS COCO(多人人體姿態(tài)數(shù)據(jù)集)。論文的 baseline 采用 Cascaded Pyramid Network(CVPR 2018)。論文首先在 MS COCO 進(jìn)行消融實(shí)驗(yàn),以驗(yàn)證各個(gè)模塊的重要性。

表3 可以看出,在只使用通道交流模塊,組數(shù)設(shè)置為 4(CSM-4)的情況下,在 COCO minival 數(shù)據(jù)集的結(jié)果可以由 69.4 提升到 71.7。在只使用空間通道注意力殘差模塊的情況下,結(jié)果可以由 69.4 提升到 70.8。同時(shí)使用兩種模塊,結(jié)果進(jìn)一步提升到 72.1。

其次,論文在 COCO minival(表4)和 test-dev(表5)數(shù)據(jù)集對(duì)比了性能最先進(jìn)的一些網(wǎng)絡(luò)和結(jié)果,均取得了優(yōu)異的超越。

技術(shù)解讀(二)

另一個(gè)冠軍隊(duì)伍——肖斌帶領(lǐng)的字節(jié)跳動(dòng)團(tuán)隊(duì)則提出了利用高分辨率網(wǎng)絡(luò)(HRNet)來解決人體姿態(tài)估計(jì)問題,以下是技術(shù)解讀。

通用的單人體姿態(tài)識(shí)別的框架通常為:給定單人圖片作為輸入,通過 CNN(Convolutional Neural Network)得到高分辨率的人體關(guān)鍵帶的熱點(diǎn)圖片,最后通過在熱點(diǎn)圖片中尋找最大極值點(diǎn),得到人體關(guān)鍵點(diǎn)坐標(biāo)。

在介紹 LIP 比賽使用的 HRNet(High Resolution Network)之前,我們先回顧一下人體姿態(tài)識(shí)別常用的網(wǎng)路結(jié)構(gòu)。

  • 回顧常用的人體姿態(tài)識(shí)別網(wǎng)絡(luò)

首先,先介紹一下人體姿態(tài)識(shí)別的經(jīng)典網(wǎng)絡(luò) Stack-Houglass[1],Stack-Hourglass 由普林斯頓大學(xué)教授 Jia Deng 團(tuán)隊(duì)首先提出,Stack-Hourglass 網(wǎng)路由多個(gè) stage 組成,每個(gè) stage,遵循從低語(yǔ)義高分辨率特征圖到高語(yǔ)義低分辨率特征圖,然后由高語(yǔ)義低分辨率的特征圖通過上采樣恢復(fù)出高分辨率的特征圖的串行結(jié)構(gòu),同時(shí)低語(yǔ)義的高分辨率的特征通過跳連結(jié)和深層的恢復(fù)的高分辨率融合。

在 2018 年,COCO 人體關(guān)鍵點(diǎn)比賽中,曠視團(tuán)隊(duì)提出了 CPN 網(wǎng)絡(luò)(Cascaded Pyramid Network)[2],獲得 COCO 人體姿態(tài)識(shí)別的冠軍。CPN 網(wǎng)絡(luò)使用 ResNet 作為骨干網(wǎng)路,采用了類似特征金字塔的結(jié)構(gòu)來生成高分辨的人體姿態(tài)關(guān)鍵點(diǎn)熱點(diǎn)圖。CPN 主干網(wǎng)路也是遵循從高分辨率特征到低分辨率特征的串行結(jié)構(gòu),最后通過跳連結(jié)構(gòu)以及上采樣操作,得到最終的高分辨率的熱點(diǎn)特征圖。

2018 ECCV 會(huì)議上,在人體姿態(tài)關(guān)鍵點(diǎn)檢測(cè)任務(wù)中,微軟亞洲研究院提出了一種通過三層級(jí)聯(lián)的反卷積方法——Simple Baseline[3],來解碼 ResNet 主干網(wǎng)路的低分辨率特征。這個(gè)方法很簡(jiǎn)單,但在人體關(guān)鍵點(diǎn)識(shí)別任務(wù)中取得了非常不錯(cuò)的成績(jī)。Simple Baseline 的方法也遵循了從高分率到低分辨率學(xué)習(xí),然后從低分辨率特征恢復(fù)高分辨特征的原則。

到這里總結(jié)一下,我們可以看出在人體關(guān)鍵點(diǎn)識(shí)別任務(wù)中,人體姿態(tài)識(shí)別的網(wǎng)路有以下幾大特征:

(1)網(wǎng)絡(luò)設(shè)計(jì)的結(jié)構(gòu)都遵循從高分辨率到低分辨率的串行連接結(jié)構(gòu);

(2)高分辨率的人體姿態(tài)高分辨率熱點(diǎn)圖,都需要從低分辯的特征圖恢復(fù)得到;

(3)通常,恢復(fù)的高分辨率特征圖需要融合淺層的高分辨特征圖。

  • 為什么選擇 HRNet?

我們認(rèn)為在人體關(guān)鍵點(diǎn)檢測(cè)任務(wù)中,是需要一個(gè)更強(qiáng)的高分辨表達(dá)的特征圖,從技術(shù)路線上不應(yīng)該只局限在從低分辨率特征來恢復(fù)或解碼高分辨率特征這一種路線上,而應(yīng)該直接通過網(wǎng)路來學(xué)習(xí)高分辨率的特征表達(dá)。

因此,我們選擇了一種高分辨率表達(dá)的網(wǎng)路(High-Resolution Network,HRNet)[4]來做人體關(guān)鍵點(diǎn)檢測(cè)任務(wù)。HRNet 在網(wǎng)路整個(gè)過程中維持或?qū)W習(xí)高分辨率的特征,漸進(jìn)的增加低分辨率的的分支,并且通過特征交換模塊,多次進(jìn)行高分辨率和低分辨率的特征交換,從而學(xué)到足夠豐富的高分辨率特征。

  • HRNet 的與眾不同之處

通過對(duì)比我們可以看到 HRNet 和之前的網(wǎng)絡(luò)具有很大的不同:

首先,HRNet 的高分辨率特征和低分辨率特征是并行連接。其次,HRNet 始終會(huì)學(xué)習(xí)一個(gè)高分辨率的特征表達(dá)。最后,HRNet 是通過多次的高分辨率特征和低分辨率特征的交換,來進(jìn)一步增強(qiáng)高分辨率特征的學(xué)習(xí)。通過這種方式,HRNet 可以學(xué)到更強(qiáng)的高分辨率的特征表達(dá)。

HRNet 不僅在 LIP 人體姿態(tài)識(shí)別任務(wù)中取得了冠軍的結(jié)果。在其他人體姿態(tài)識(shí)別的數(shù)據(jù)集上如 COCO 關(guān)鍵點(diǎn)檢測(cè)任務(wù),PoseTrack 人體姿態(tài)識(shí)別以及跟蹤任務(wù),MPII 人體字體識(shí)別任務(wù)中都得到了 State-of-the-art 的結(jié)果。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:刷新記錄,算法開源!字節(jié)跳動(dòng)獲人體姿態(tài)估計(jì)競(jìng)賽雙冠 | CVPR 2019

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【愛芯派 Pro 開發(fā)板試用體驗(yàn)】人體姿態(tài)估計(jì)模型部署前期準(zhǔn)備

    Bottom-up類型的。 3、Openpose/lightweight openpose模型 首先要用到的是Openpose模型,這應(yīng)該是最有名的人體姿態(tài)估計(jì)的模型了,因?yàn)槭鞘讉€(gè)開源的人體
    發(fā)表于 01-01 01:04

    請(qǐng)問一下end-to-end的人姿態(tài)估計(jì)器開發(fā)流程有哪些

    請(qǐng)問一下end-to-end的人姿態(tài)估計(jì)器開發(fā)流程有哪些?
    發(fā)表于 02-16 07:25

    基于姿態(tài)校正的人臉檢測(cè)方法

    本人提出了一種基于姿態(tài)校正的人臉檢測(cè)方法,在此基礎(chǔ)上,提出姿態(tài)角度估計(jì)目標(biāo)函數(shù),并討論了2種尋優(yōu)方法,該方法在自拍的視頻序列中進(jìn)行姿態(tài)
    發(fā)表于 04-13 17:24 ?30次下載
    基于<b class='flag-5'>姿態(tài)</b>校正<b class='flag-5'>的人</b>臉檢測(cè)方法

    改進(jìn)PSO優(yōu)化神經(jīng)網(wǎng)絡(luò)算法的人體姿態(tài)識(shí)別_何佳佳

    改進(jìn)PSO優(yōu)化神經(jīng)網(wǎng)絡(luò)算法的人體姿態(tài)識(shí)別_何佳佳
    發(fā)表于 03-19 11:41 ?1次下載

    騰訊優(yōu)圖實(shí)驗(yàn)室在人體2D姿態(tài)估計(jì)中獲得了創(chuàng)新技術(shù)突破

    近日,騰訊優(yōu)圖實(shí)驗(yàn)室在人體2D姿態(tài)估計(jì)任務(wù)中獲得創(chuàng)新性技術(shù)突破,其提出的基于語(yǔ)義對(duì)抗的數(shù)據(jù)增強(qiáng)算法Adversarial Semantic Data Augmentation (ASD
    的頭像 發(fā)表于 10-26 14:12 ?2621次閱讀
    騰訊優(yōu)圖實(shí)驗(yàn)室在<b class='flag-5'>人體</b>2D<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>中獲得了創(chuàng)新技術(shù)突破

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)方法

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)方法通過構(gòu)建特定的神經(jīng)網(wǎng)絡(luò)架構(gòu),將提取的特征信息根據(jù)相應(yīng)的特征融合方法進(jìn)行
    發(fā)表于 03-22 15:51 ?5次下載
    基于深度學(xué)習(xí)的二維<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>方法

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)算法

    近年來人體姿態(tài)估計(jì)作為計(jì)算機(jī)視覺領(lǐng)域的熱點(diǎn),在視頻監(jiān)控、人機(jī)交互、智慧校園等領(lǐng)域具有廣泛的應(yīng)用前景。隨著神經(jīng)網(wǎng)絡(luò)的快速發(fā)展,采用深度學(xué)習(xí)方法進(jìn)行二維
    發(fā)表于 04-27 16:16 ?7次下載
    基于深度學(xué)習(xí)的二維<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>算法

    基于編解碼殘差的人體姿態(tài)估計(jì)方法

    人體姿態(tài)估計(jì)尤其是多人姿態(tài)估計(jì)逐漸滲透到教育、體育等各個(gè)方面,精度高、輕量級(jí)的多人姿態(tài)
    發(fā)表于 05-28 16:35 ?2次下載

    移動(dòng)和嵌入式人體姿態(tài)估計(jì)

    轉(zhuǎn)載自:移動(dòng)和嵌入式人體姿態(tài)估計(jì)(Mobile and Embedded Human Pose Estimation)作者:Arrow背景現(xiàn)有的大部分模型都是在PC(帶有超級(jí)強(qiáng)大...
    發(fā)表于 01-26 18:25 ?3次下載
    移動(dòng)和嵌入式<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>

    硬件加速人體姿態(tài)估計(jì)開源分享

    電子發(fā)燒友網(wǎng)站提供《硬件加速人體姿態(tài)估計(jì)開源分享.zip》資料免費(fèi)下載
    發(fā)表于 06-25 10:27 ?0次下載
    硬件加速<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>開源分享

    利用opencv+openpose實(shí)現(xiàn)人體姿態(tài)檢測(cè)

    利用opencv+openpose實(shí)現(xiàn),接著我又開始找一些資料,在pycharm上部署。 前言 人體姿態(tài)估計(jì)的一個(gè)有趣應(yīng)用是 CGI(computer graphic image,一種電影制造技術(shù))應(yīng)用。如果
    的頭像 發(fā)表于 06-26 10:15 ?2859次閱讀
    利用opencv+openpose實(shí)現(xiàn)<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b>檢測(cè)

    AI深度相機(jī)-人體姿態(tài)估計(jì)應(yīng)用

    我們非常高興地發(fā)布一個(gè)新的代碼示例,展示虹科AI深度相機(jī)SDK的驚人功能。只需6行源代碼,您就可以實(shí)時(shí)準(zhǔn)確地估計(jì)和跟蹤人體姿態(tài)!我們最新的代碼示例使用AI機(jī)器學(xué)習(xí)技術(shù)來識(shí)別和跟蹤人體
    的頭像 發(fā)表于 07-31 17:42 ?932次閱讀
    AI深度相機(jī)-<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>應(yīng)用

    基于MMPose的姿態(tài)估計(jì)配置案例

    將統(tǒng)一的人體姿態(tài)分析框架解耦成不同的模塊組件,通過組合不同的模塊組件,可以便捷地構(gòu)建自定義人體姿態(tài)分析模型。 本文主要對(duì)動(dòng)物關(guān)鍵點(diǎn)檢測(cè)模型進(jìn)行微調(diào)與測(cè)試,從數(shù)據(jù)集構(gòu)造開始,詳細(xì)解釋各
    發(fā)表于 09-15 10:07 ?1116次閱讀
    基于MMPose的<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>配置案例

    基于飛控的姿態(tài)估計(jì)算法作用及原理

    ? 姿態(tài)估計(jì)的作用? 姿態(tài)估計(jì)是飛控算法的一個(gè)基礎(chǔ)部分,而且十分重要。為了完成飛行器平穩(wěn)的姿態(tài)控制,首先需要精準(zhǔn)的
    發(fā)表于 11-13 11:00 ?847次閱讀
    基于飛控的<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>算法作用及原理

    使用愛芯派Pro開發(fā)板部署人體姿態(tài)估計(jì)模型

    部署模型的整體架構(gòu)。接下來就回到最開始定的主線上了——人體姿態(tài)估計(jì)。這篇文章就是記錄對(duì)一些輕量化人體姿態(tài)
    的頭像 發(fā)表于 01-09 09:50 ?1270次閱讀
    使用愛芯派Pro開發(fā)板部署<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>模型