您好,歡迎來電子發(fā)燒友網(wǎng)! ,新用戶?[免費(fèi)注冊(cè)]

您的位置:電子發(fā)燒友網(wǎng)>源碼下載>數(shù)值算法/人工智能>

基于訓(xùn)練圖CNN特征的識(shí)別算法

大?。?/span>2.11 MB 人氣: 2018-01-19 需要積分:2

  視頻人體動(dòng)作識(shí)別一直是具有重要學(xué)術(shù)價(jià)值的研究領(lǐng)域。在傳統(tǒng)方法中,動(dòng)作特征和軌跡特征效果最為優(yōu)秀,改進(jìn)密集軌跡( Improved Dense Trajectories,IDT)特征在HMDB-51動(dòng)作庫上就可以達(dá)到57. 2%的準(zhǔn)確率,融合了IDT特征的組合特征可以在UCFI01動(dòng)作庫上達(dá)到89. 62%的準(zhǔn)確率。而只用了圖像RGB數(shù)據(jù)的空域卷積網(wǎng)絡(luò)模型僅能分別做到40. 5%和73. 0%。

  為將卷積神經(jīng)網(wǎng)絡(luò)( CNN)應(yīng)用到視頻理解中,提出一種基于訓(xùn)練圖CNN特征的識(shí)別算法。利用圖像RGB數(shù)據(jù)識(shí)別視頻人體動(dòng)作,使用現(xiàn)有的CNN模型從圖像中提取特征,并采用長短記憶單元的遞歸神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練分類,研究CNN模型和隱層的選擇、優(yōu)化、特征矢量化和降維。實(shí)驗(yàn)結(jié)果表明,與使用圖像RGB數(shù)據(jù)注意力模型的算法和組合長短期記憶模型算法相比,該算法具有更高的準(zhǔn)確率。

基于訓(xùn)練圖CNN特征的識(shí)別算法

非常好我支持^.^

(0) 0%

不好我反對(duì)

(0) 0%

      發(fā)表評(píng)論

      用戶評(píng)論
      評(píng)價(jià):好評(píng)中評(píng)差評(píng)

      發(fā)表評(píng)論,獲取積分! 請(qǐng)遵守相關(guān)規(guī)定!

      ?