0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度圖像的人體關(guān)節(jié)定位算法

新機(jī)器視覺 ? 來源:上海交大類腦智能應(yīng)用技 ? 作者:上海交大類腦智能 ? 2022-07-15 10:05 ? 次閱讀

人體姿態(tài)估計(jì)是當(dāng)前計(jì)算機(jī)視覺領(lǐng)域的熱點(diǎn)研究問題。對(duì)人體骨架關(guān)節(jié)點(diǎn)進(jìn)行準(zhǔn)確提取并構(gòu)建人體骨架模型,為進(jìn)一步的人體姿態(tài)識(shí)別、實(shí)時(shí)交互游戲等應(yīng)用提供了基礎(chǔ)。但是傳統(tǒng)的基于RGB圖像的方法容易受到光照、陰影、復(fù)雜背景的影響,準(zhǔn)確度不高并且算法復(fù)雜。利用深度圖像技術(shù)可以有效地解決上述問題,利用深度信息可以快速地進(jìn)行背景分割,抗干擾性能好,算法效率高。

本文主要研究基于深度圖像的人體關(guān)節(jié)定位算法。算法對(duì)深度圖像素點(diǎn)周圍區(qū)域的深度進(jìn)行格點(diǎn)化采樣以提取其深度特征,再使用隨機(jī)森林分類器進(jìn)行像素點(diǎn)分類,對(duì)同一類別的點(diǎn)使用Mean Shift算法聚類出中心點(diǎn),以該中心點(diǎn)作為關(guān)節(jié)點(diǎn)位置。該算法可對(duì)人體全身關(guān)節(jié)點(diǎn)進(jìn)行定位。

局域深度特征提取

本文中采用如圖1所示的局域深度采樣特征。其中藍(lán)色點(diǎn)表示圖像I中給定的像素x,以該像素為中心生成一個(gè)5*5的格點(diǎn)矩陣,紅色的格點(diǎn)表示要進(jìn)行深度采樣的點(diǎn)。

734edd8c-037d-11ed-ba43-dac502259ad0.png

圖1 局域深度采樣示意圖

隨機(jī)森林分類器

分類器是對(duì)樣本進(jìn)行分類的算法的統(tǒng)稱,在機(jī)器學(xué)習(xí)中有許多種分類器可供我們選擇使用,包括邏輯回歸、樸素貝葉斯、支持向量機(jī)(SVM)、決策樹、隨機(jī)森林、神經(jīng)網(wǎng)絡(luò)等算法。綜合考慮分類的精度與效率,本課題中采用的是隨機(jī)森林分類器。

隨機(jī)森林分類器是由多棵決策樹組合而成的分類器,如圖2所示。決策樹的結(jié)構(gòu)類似二叉樹,由分裂結(jié)點(diǎn)和葉結(jié)點(diǎn)構(gòu)成。每一個(gè)分裂結(jié)點(diǎn)包含一個(gè)特征與閾值,像素x從根部開始,根據(jù)特征與閾值劃分進(jìn)入左子樹還是右子樹,這樣不斷地分裂直到葉結(jié)點(diǎn)。在每棵樹的葉結(jié)點(diǎn)能夠得到該像素對(duì)于各個(gè)身體部件的概率分布,將各棵樹得到的結(jié)果相加,得到最終的概率分布,擁有最高概率的一類作為最終的分類結(jié)果。

隨機(jī)森林將多棵決策樹合并在一起,準(zhǔn)確度相較于單棵決策樹有較大提升,并且多棵決策樹可以并行訓(xùn)練,提高了訓(xùn)練效率。

735cdb58-037d-11ed-ba43-dac502259ad0.png

圖2隨機(jī)森林分類器

訓(xùn)練完隨機(jī)森林分類器后,我們利用其對(duì)像素點(diǎn)進(jìn)行分類,判斷其屬于身體的哪個(gè)部位。對(duì)于圖像中的每個(gè)像素,使用分類器對(duì)其分類后得到分類的結(jié)果,以及預(yù)測(cè)結(jié)果的概率。我們只選取圖像中預(yù)測(cè)概率高于80%的點(diǎn),這樣就能得到密度不同的分類點(diǎn)。越靠近關(guān)節(jié)點(diǎn)位置,預(yù)測(cè)概率越高,點(diǎn)的密度越大,遠(yuǎn)離關(guān)節(jié)點(diǎn)位置的密度則小。

關(guān)節(jié)點(diǎn)位置估計(jì)

在得到像素點(diǎn)分類后,我們使用Mean Shift聚類算法得到屬于同一部位像素點(diǎn)的中心,作為關(guān)節(jié)位置。

Mean Shift算法一般為一個(gè)迭代過程,先計(jì)算感興趣區(qū)域內(nèi)的偏移均值,移動(dòng)區(qū)域中心到計(jì)算出的質(zhì)心處,然后以此處作為新的起點(diǎn),繼續(xù)移動(dòng)。在迭代過程中,不斷向密度更大的地方偏移,直到移動(dòng)到這類像素點(diǎn)密度最高的中心位置而停止。此時(shí)這個(gè)位置最能代表這一類點(diǎn),我們將其作為該部位的關(guān)節(jié)點(diǎn)位置。分別對(duì)所有類別的點(diǎn)都運(yùn)行一遍此算法后,我們就能得到全身關(guān)節(jié)點(diǎn)的位置。

但是由于分類結(jié)果并不一定準(zhǔn)確,聚類出的結(jié)果可能與真實(shí)關(guān)節(jié)點(diǎn)的位置有所偏移,這時(shí)我們可以采用人體骨架長度比例約束條件,來矯正一部分偏移較大的關(guān)節(jié)點(diǎn),對(duì)預(yù)測(cè)結(jié)果進(jìn)行優(yōu)化。

流程介紹

訓(xùn)練流程:對(duì)一幅深度圖,取關(guān)節(jié)附近的點(diǎn)作為訓(xùn)練集,對(duì)這些點(diǎn)提取深度特征,再訓(xùn)練隨機(jī)森林分類器

736b3266-037d-11ed-ba43-dac502259ad0.png

圖3訓(xùn)練流程示意圖

測(cè)試流程:深度圖背景分割得到人體區(qū)域圖像,使用隨機(jī)森林分類器對(duì)人體的像素點(diǎn)進(jìn)行分類,選取預(yù)測(cè)概率大于設(shè)定閾值的點(diǎn),則得到疏密不同的各關(guān)節(jié)部位像素點(diǎn),越接近關(guān)節(jié)點(diǎn)位置,像素點(diǎn)越密,再使用Mean shift算法進(jìn)行聚類,得到關(guān)節(jié)點(diǎn)位置

739e8a26-037d-11ed-ba43-dac502259ad0.png

測(cè)試流程示意圖

運(yùn)行效果

圖4為關(guān)節(jié)定位算法的運(yùn)行效果,(a)為NTU數(shù)據(jù)集中關(guān)節(jié)點(diǎn)的標(biāo)準(zhǔn)位置;(b)是算法對(duì)同一張深度圖中關(guān)節(jié)點(diǎn)的定位結(jié)果;(c)為自制的Kinect測(cè)試集上的運(yùn)行效果;(d)為采用公司研制的TOF相機(jī)模塊拍攝的深度圖的運(yùn)行效果。可以直觀地看出定位效果較為良好。TOF相機(jī)的分辨率為320*240,因此相同距離下人體在畫面中所占比例更大。

73aacc8c-037d-11ed-ba43-dac502259ad0.png

(a) (b)

73c01f6a-037d-11ed-ba43-dac502259ad0.png

(c) (d)

圖4 算法運(yùn)行效果示例

注:

(a)NTU測(cè)試集真值,25關(guān)節(jié)

(b)NTU測(cè)試集

(c)自制測(cè)試集

(d)TOF相機(jī)拍攝圖像

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4581

    瀏覽量

    92387
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8330

    瀏覽量

    132224
  • 深度圖像
    +關(guān)注

    關(guān)注

    0

    文章

    18

    瀏覽量

    3495

原文標(biāo)題:3D視覺在人體姿態(tài)估計(jì)算法的應(yīng)用

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    深度識(shí)別算法包括哪些內(nèi)容

    :CNN是深度學(xué)習(xí)中處理圖像和視頻等具有網(wǎng)格結(jié)構(gòu)數(shù)據(jù)的主要算法。它通過卷積層、池化層和全連接層等組件,實(shí)現(xiàn)對(duì)圖像特征的自動(dòng)提取和識(shí)別。 應(yīng)用領(lǐng)域 :CNN在
    的頭像 發(fā)表于 09-10 15:28 ?213次閱讀

    基于新型藍(lán)牙技術(shù)的人定位方案

    云酷科技“基于新型藍(lán)牙技術(shù)的人定位項(xiàng)目”在結(jié)合行業(yè)相關(guān)制度及項(xiàng)目管理經(jīng)驗(yàn)基礎(chǔ)上,利用藍(lán)牙定位、4G/5G通訊等技術(shù),以較低成本投入,實(shí)現(xiàn)生產(chǎn)區(qū)域的“作業(yè)安全”、“人員安全”、“機(jī)具安全”閉環(huán)管理
    的頭像 發(fā)表于 09-03 11:57 ?157次閱讀

    圖像識(shí)別算法都有哪些方法

    圖像識(shí)別算法是計(jì)算機(jī)視覺領(lǐng)域的核心任務(wù)之一,它涉及到從圖像中提取特征并進(jìn)行分類、識(shí)別和分析的過程。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,圖像識(shí)別
    的頭像 發(fā)表于 07-16 11:14 ?4674次閱讀

    圖像識(shí)別算法的提升有哪些

    引言 圖像識(shí)別是計(jì)算機(jī)視覺領(lǐng)域的核心任務(wù)之一,旨在使計(jì)算機(jī)能夠自動(dòng)地識(shí)別和理解圖像中的內(nèi)容。隨著計(jì)算機(jī)硬件的發(fā)展和深度學(xué)習(xí)技術(shù)的突破,圖像識(shí)別算法
    的頭像 發(fā)表于 07-16 11:12 ?512次閱讀

    圖像識(shí)別算法的優(yōu)缺點(diǎn)有哪些

    圖像識(shí)別算法可以快速地處理大量圖像數(shù)據(jù),提高工作效率。與傳統(tǒng)的人工識(shí)別方法相比,圖像識(shí)別算法
    的頭像 發(fā)表于 07-16 11:09 ?1032次閱讀

    利用Matlab函數(shù)實(shí)現(xiàn)深度學(xué)習(xí)算法

    在Matlab中實(shí)現(xiàn)深度學(xué)習(xí)算法是一個(gè)復(fù)雜但強(qiáng)大的過程,可以應(yīng)用于各種領(lǐng)域,如圖像識(shí)別、自然語言處理、時(shí)間序列預(yù)測(cè)等。這里,我將概述一個(gè)基本的流程,包括環(huán)境設(shè)置、數(shù)據(jù)準(zhǔn)備、模型設(shè)計(jì)、訓(xùn)練過程、以及測(cè)試和評(píng)估,并提供一個(gè)基于Mat
    的頭像 發(fā)表于 07-14 14:21 ?1644次閱讀

    深度學(xué)習(xí)的基本原理與核心算法

    隨著大數(shù)據(jù)時(shí)代的到來,傳統(tǒng)機(jī)器學(xué)習(xí)方法在處理復(fù)雜模式上的局限性日益凸顯。深度學(xué)習(xí)(Deep Learning)作為一種新興的人工智能技術(shù),以其強(qiáng)大的非線性表達(dá)能力和自學(xué)習(xí)能力,在圖像識(shí)別、自然語言
    的頭像 發(fā)表于 07-04 11:44 ?1386次閱讀

    基于毫米波的人體跟蹤和識(shí)別算法

    準(zhǔn)確的人類活動(dòng)識(shí)別(HAR)是實(shí)現(xiàn)新興的上下文感知應(yīng)用程序的關(guān)鍵,這些應(yīng)用程序需要了解和識(shí)別人類行為,例如監(jiān)測(cè)獨(dú)居的殘疾人或老年人。傳統(tǒng)上,HAR是通過環(huán)境傳感器(例如,相機(jī))或通過可穿戴設(shè)備(例如
    發(fā)表于 05-14 18:40

    樓宇間的人定位系統(tǒng)

    樓宇人員定位系統(tǒng)基于先進(jìn)的定位技術(shù)和物聯(lián)網(wǎng)技術(shù),通過將傳感器、網(wǎng)絡(luò)通信、云計(jì)算和人工智能相結(jié)合,實(shí)現(xiàn)對(duì)樓宇內(nèi)人員的準(zhǔn)確定位和管理。那么為什么不使用普通的人
    的頭像 發(fā)表于 01-11 10:07 ?394次閱讀

    使用圖像處理庫OpenCV從攝像頭獲取數(shù)據(jù)并在PyQt5上顯示出來

    OpenCV能夠處理圖像、視頻、深度圖像等各種類型的視覺數(shù)據(jù)
    的頭像 發(fā)表于 01-05 17:32 ?2130次閱讀
    使用<b class='flag-5'>圖像</b>處理庫OpenCV從攝像頭獲取數(shù)據(jù)并在PyQt5上顯示出來

    FPGA圖像處理之CLAHE算法

    在FPGA圖像處理--CLAHE算法(一)中介紹了為啥要用CLAHE算法來做圖像增強(qiáng)。
    的頭像 發(fā)表于 01-04 12:23 ?2273次閱讀
    FPGA<b class='flag-5'>圖像</b>處理之CLAHE<b class='flag-5'>算法</b>

    【愛芯派 Pro 開發(fā)板試用體驗(yàn)】人體姿態(tài)估計(jì)模型部署前期準(zhǔn)備

    人體姿態(tài)估計(jì)任務(wù)主要通過一張圖片或者一段視頻,估計(jì)圖像中人物的身體的關(guān)鍵點(diǎn),再把人體的關(guān)鍵點(diǎn)相互連接,組成類似一個(gè)“火柴人”的形象,從而把一個(gè)人當(dāng)前的姿態(tài)展示出來。如下圖所示,人體
    發(fā)表于 01-01 01:04

    目前的室內(nèi)定位算法有什么優(yōu)勢(shì)

    隨著智能手機(jī)、物聯(lián)網(wǎng)和無人駕駛等技術(shù)的迅猛發(fā)展,室內(nèi)定位技術(shù)成為了人們關(guān)注的熱點(diǎn)。由于GPS在室內(nèi)定位中受限,研究者們不斷在室內(nèi)定位算法上進(jìn)行探索和創(chuàng)新。本文詳盡、詳實(shí)、細(xì)致地回顧了目
    的頭像 發(fā)表于 12-25 17:00 ?619次閱讀

    單目深度估計(jì)開源方案分享

    可以看一下單目深度估計(jì)效果,這個(gè)深度圖的分辨率是真的高,物體邊界分割的非常干凈!這里也推薦工坊推出的新課程《單目深度估計(jì)方法:算法梳理與代碼實(shí)現(xiàn)》。
    的頭像 發(fā)表于 12-17 10:01 ?729次閱讀
    單目<b class='flag-5'>深度</b>估計(jì)開源方案分享

    長短距離循環(huán)更新(LRRU)網(wǎng)絡(luò)的輕量級(jí)深度網(wǎng)絡(luò)框架介紹

    深度補(bǔ)全,導(dǎo)致計(jì)算復(fù)雜度高,限制了實(shí)際應(yīng)用的可能性。相比之下,本文提出的LRRU網(wǎng)絡(luò)首先利用學(xué)習(xí)到的空間變體核將稀疏輸入填充以獲得初始深度圖,然后通過迭代更新過程靈活地更新深度圖。迭代更新過程是內(nèi)容自適應(yīng)的,可以從RGB
    的頭像 發(fā)表于 11-03 09:24 ?918次閱讀
    長短距離循環(huán)更新(LRRU)網(wǎng)絡(luò)的輕量級(jí)<b class='flag-5'>深度</b>網(wǎng)絡(luò)框架介紹