0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GitHub nanodet開源移動端實時的Anchor-free檢測模型,上線僅兩天Star量已經(jīng)超過200

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:通信信號處理研究所 ? 作者:通信信號處理研究 ? 2020-12-03 16:06 ? 次閱讀

目標(biāo)檢測一直是計算機視覺領(lǐng)域的一大難題,其目標(biāo)是找出圖像中的所有感興趣區(qū)域,并確定這些區(qū)域的位置和類別。目標(biāo)檢測中的深度學(xué)習(xí)方法已經(jīng)發(fā)展了很多年,并出現(xiàn)了不同類型的檢測方法。 目前,深度學(xué)習(xí)目標(biāo)檢測方法主要分為兩大類,分別是兩階段式和單階段式目標(biāo)檢測算法。兩階段式目標(biāo)檢測框架首先生成候選區(qū)域,然后將其分類成不同的目標(biāo)類別,代表模型有 R-CNN、Fast R-CNN 等;單階段式目標(biāo)檢測框架將目標(biāo)檢測任務(wù)視為一個統(tǒng)一的端到端回歸問題,代表模型有 MultiBox、YOLO、SSD 等。這類框架通常結(jié)構(gòu)更簡單,檢測速度也更快。 深度學(xué)習(xí)目標(biāo)檢測方法還可劃分為 Anchor-base 和 Anchor-free 兩大類,今年又出現(xiàn)了將 Transformer 用于目標(biāo)檢測的嘗試,各種方法百花齊放。但是,在移動端目標(biāo)檢測算法上,YOLO 系列和 SSD 等 Anchor-base 的模型一直占據(jù)主導(dǎo)地位。

近日,GitHub 上出現(xiàn)了一個項目 nanodet,它開源了一個移動端實時的 Anchor-free 檢測模型,希望能夠提供不亞于 YOLO 系列的性能,而且同樣方便訓(xùn)練和移植。該項目上線僅兩天,Star 量已經(jīng)超過 200。

項目地址:https://github.com/RangiLyu/nanodet NanoDet 模型介紹 NanoDet 是一個速度超快和輕量級的移動端 Anchor-free 目標(biāo)檢測模型。該模型具備以下優(yōu)勢:

超輕量級:模型文件大小僅 1.8m;

速度超快:在移動 ARM CPU 上的速度達到 97fps(10.23ms);

訓(xùn)練友好:GPU 內(nèi)存成本比其他模型低得多。GTX1060 6G 上的 Batch-size 為 80 即可運行;

方便部署:提供了基于 ncnn 推理框架的 C++ 實現(xiàn)和 Android demo。

模型性能 目前開源的 NanoDet-m 模型在 320x320 輸入分辨率的情況下,整個模型的 Flops 只有 0.72B,而 yolov4-tiny 則有 6.96B,小了將近十倍。模型的參數(shù)量也只有 0.95M,權(quán)重文件在使用 ncnn optimize 進行 16 位存儲之后,只有 1.8mb。 盡管模型非常的輕量,但是它的性能不容小覷。在與其他模型進行比較時,項目作者選擇使用 COCO mAP (0.5:0.95) 作為評估指標(biāo),兼顧檢測和定位的精度,在 COCO val 5000 張圖片上測試,并且沒有使用 Testing-Time-Augmentation。在這種設(shè)置下,320 分辨率輸入能夠達到 20.6 的 mAP,比 tiny-yolov3 高 4 分,只比 yolov4-tiny 低 1 個百分點。在將輸入分辨率與 YOLO 保持一致,都使用 416 輸入的情況下,NanoDet 與 yolov4-tiny 得分持平。具體結(jié)果如下表所示:

以上性能基于 ncnn 和麒麟 980 (4xA76+4xA55) ARM CPU 獲得。 此外,項目作者將 ncnn 部署到手機(基于 ARM 架構(gòu)的 CPU 麒麟 980,4 個 A76 核心和 4 個 A55 核心)上之后跑了一下 benchmark,模型前向計算時間只要 10 毫秒左右,而 yolov3 和 v4 tiny 均在 30 毫秒的量級。在安卓攝像頭 demo app 上,算上圖片預(yù)處理、檢測框后處理以及繪制檢測框的時間,NanoDet 也能輕松跑到 40+FPS。

NanoDet 和 yolov4-tiny 的性能對比。 最后,該項目提供了 Android demo、C++ demo 和 Python demo。NanoDet 在安卓端的目標(biāo)檢測結(jié)果如下所示:

NanoDet 方法 NanoDet 是一種 FCOS 式的單階段 anchor-free 目標(biāo)檢測模型,它使用 ATSS 進行目標(biāo)采樣,使用 Generalized Focal Loss 損失函數(shù)執(zhí)行分類和邊框回歸(box regression)。 據(jù)項目作者介紹,該項目的主要目的是希望開源一個移動端實時的 Anchor-free 檢測模型,能夠提供不亞于 YOLO 系列的性能,并且方便訓(xùn)練和移植。為此,他參考了以下研究: 最終得到的 NanoDet 模型架構(gòu)如下:

損失函數(shù) 項目作者想要實現(xiàn)一個 FCOS 式的 anchor-free 目標(biāo)檢測模型,但將 FCOS 輕量化處理時,由于 FCOS 的 centerness 分支在輕量級的模型上很難收斂,模型效果不如預(yù)期。 最終,NanoDet 使用了李翔等人提出的 Generalized Focal Loss 損失函數(shù)。該函數(shù)能夠去掉 FCOS 的 Centerness 分支,省去這一分支上的大量卷積,從而減少檢測頭的計算開銷,非常適合移動端的輕量化部署。

圖源:https://arxiv.org/pdf/2006.04388.pdf 檢測頭輕量化 找到合適的損失函數(shù)后,如何使其在輕量級模型上發(fā)揮作用呢? 首先需要優(yōu)化的是檢測頭。 FCOS 系列使用了共享權(quán)重的檢測頭,即對 FPN 出來的多尺度 Feature Map 使用同一組卷積預(yù)測檢測框,然后每一層使用一個可學(xué)習(xí)的 Scale 值作為系數(shù),對預(yù)測出來的框進行縮放。

圖源:https://openaccess.thecvf.com/content_ICCV_2019/papers/Tian_FCOS_Fully_Convolutional_One-Stage_Object_Detection_ICCV_2019_paper.pdf 這么做的好處是能夠?qū)z測頭的參數(shù)量降低為不共享權(quán)重狀態(tài)下的 1/5。這對于光是檢測頭就擁有數(shù)百通道卷積的大模型來說非常有用,但是對于輕量化模型來說,共享權(quán)重檢測頭并沒有很大的意義。由于移動端模型推理由 CPU 執(zhí)行計算,共享權(quán)重并不會帶來推理過程的加速,而且在檢測頭非常輕量的情況下,共享權(quán)重使其檢測能力進一步下降,因此項目作者認為選擇對每一層特征使用一組卷積比較合適。 同時,F(xiàn)COS 系列在檢測頭上使用了 Group Normalization(GN)作為歸一化方式,GN 對比 BN(Batch Normalization)有很多好處,但是卻有一個缺點:BN 在推理時能夠?qū)⑵錃w一化的參數(shù)直接融合進卷積中,可以省去這一步計算,而 GN 則不行。為了能夠節(jié)省歸一化操作的時間,項目作者選擇將 GN 替換為 BN。 FCOS 的檢測頭使用了 4 個 256 通道的卷積作為一個分支,也就是說在邊框回歸和分類兩個分支上一共有 8 個 c=256 的卷積,計算量非常大。為了將其輕量化,項目作者首先選擇用深度可分離卷積替換普通卷積,并且將卷積堆疊的數(shù)量從 4 個減少為 2 組。在通道數(shù)上,將 256 維壓縮至 96 維,之所以選擇 96,是因為需要將通道數(shù)保持為 8 或 16 的倍數(shù),能夠享受到大部分推理框架的并行加速。 最后,項目作者借鑒了 YOLO 系列的做法,將邊框回歸和分類使用同一組卷積進行計算,然后 split 成兩份。最終得到的輕量化檢測頭如下圖所示:

FPN 層改進 目前針對 FPN 的改進有許多,如 EfficientDet 使用了 BiFPN,YOLO v4 和 v5 使用了 PAN,除此之外還有 BalancedFPN 等等。BiFPN 雖然性能強大,但是堆疊的特征融合操作會導(dǎo)致運行速度降低,而 PAN 只有自上而下和自下而上兩條通路,非常簡潔,是輕量級模型特征融合的好選擇。 原版的 PAN 和 YOLO 系列中的 PAN 都使用了 stride=2 的卷積進行大尺度 Feature Map 到小尺度的縮放。而該項目出于輕量化的考慮,選擇完全去掉 PAN 中的所有卷積,只保留從骨干網(wǎng)絡(luò)特征提取后的 1x1 卷積來進行特征通道維度的對齊,上采樣和下采樣均使用插值來完成。與 YOLO 使用的 concatenate 操作不同,項目作者選擇將多尺度的 Feature Map 直接相加,使整個特征融合模塊的計算量變得非常小。 最終得到的極小版 PAN 結(jié)構(gòu)非常簡單:

NanoDet 使用的超輕量 PAN(圖源:https://zhuanlan.zhihu.com/p/306530300) 骨干網(wǎng)絡(luò) 項目作者選擇使用 ShuffleNetV2 1.0x 作為骨干網(wǎng)絡(luò),他去掉了該網(wǎng)絡(luò)的最后一層卷積,并且抽取 8、16、32 倍下采樣的特征輸入到 PAN 中做多尺度的特征融合。整個骨干模型使用了 Torchvision 提供的代碼,能夠直接加載 Torchvision 上提供的 imagenet 預(yù)訓(xùn)練權(quán)重,對加快模型收斂起到很大幫助。 目前,項目作者已將 Pytorch 訓(xùn)練代碼、基于 NCNN 的 Linux 和 Windows C++ 部署代碼以及 Android 攝像頭 Demo 全部開源,并在 Readme 中提供了詳細教程,參見項目 GitHub 主頁。

責(zé)任編輯:PSY

原文標(biāo)題:1.8M超輕量目標(biāo)檢測模型NanoDet,比YOLO跑得快,上線兩天Star量超200

文章出處:【微信公眾號:通信信號處理研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 檢測模型
    +關(guān)注

    關(guān)注

    0

    文章

    17

    瀏覽量

    7300
  • 移動端
    +關(guān)注

    關(guān)注

    0

    文章

    39

    瀏覽量

    4357
  • GitHub
    +關(guān)注

    關(guān)注

    3

    文章

    461

    瀏覽量

    16331

原文標(biāo)題:1.8M超輕量目標(biāo)檢測模型NanoDet,比YOLO跑得快,上線兩天Star量超200

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    開放原子開源運營專區(qū)正式上線

    進一步降低各組織開源社區(qū)運營成本,提升運營效率,推動開源生態(tài)的繁榮發(fā)展,基金會基于AtomGit開源協(xié)作平臺打造的開源運營專區(qū),現(xiàn)已正式上線
    的頭像 發(fā)表于 10-22 09:25 ?221次閱讀

    亞馬遜云科技上線Meta Llama 3.2模型

    亞馬遜云科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平臺上正式上線。該模型包括Meta首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMak
    的頭像 發(fā)表于 10-11 18:08 ?365次閱讀

    用LM224做模擬輸入檢測電路,高溫(60℃)情況下,會出現(xiàn)模擬檢測值逐漸減小的情況怎么解決?

    用LM224做模擬輸入檢測電路,輸入電壓范圍是0~10V,運放輸入和輸出的電阻都采用高精度,相同溫度系數(shù),運放輸出經(jīng)過一個精密電阻到ADC124,運放采用單
    發(fā)表于 09-25 06:39

    真格基金宣布捐贈開源AI項目vLLM

    開源技術(shù)處于 AI 革命的中心。Llama 3、Mistral 等開源模型迅速追趕 GPT-4,TensorFlow、Pytorch 等開源深度學(xué)習(xí)框架提供了豐富的庫和工具。
    的頭像 發(fā)表于 09-24 16:13 ?260次閱讀

    GitHub推出GitHub Models服務(wù),賦能開發(fā)者智能選擇AI模型

    8月2日,全球領(lǐng)先的代碼托管平臺GitHub宣布了一項重大創(chuàng)新——GitHub Models服務(wù)的正式推出。該服務(wù)被定位為AI時代的工程師助手,旨在幫助全球超過1億的GitHub用戶輕
    的頭像 發(fā)表于 08-02 15:39 ?462次閱讀

    tcp方式連接不了服務(wù)器了,服務(wù)器代碼還能開源嗎?

    是在維護服務(wù)器嗎?已經(jīng)兩天了。http方式還可以連接上,就tcp的方式不行了.服務(wù)器代碼能開源嗎?讓我們自己搭建服務(wù)器用。
    發(fā)表于 07-15 06:53

    RT-Thread 新里程碑達成——GitHub Star 破萬!

    RT-Thread實時操作系統(tǒng)開源項目在GitHub上的star數(shù)量突破一萬!截止發(fā)文,RT-Thread作為實時操作系統(tǒng)在業(yè)界
    的頭像 發(fā)表于 07-04 08:35 ?343次閱讀
    RT-Thread 新里程碑達成——<b class='flag-5'>GitHub</b> <b class='flag-5'>Star</b> 破萬!

    小鵬汽車發(fā)布模型

    小鵬汽車近日宣布,其成功研發(fā)并發(fā)布了“國內(nèi)首個量產(chǎn)上車”的模型,該模型可直接通過傳感器輸入內(nèi)容來控制車輛,標(biāo)志著智能駕駛技術(shù)的新突破。
    的頭像 發(fā)表于 05-21 15:09 ?610次閱讀

    ST-LINK檢測不到STM32芯片的原因?

    ST-LINK檢測不到芯片,檢查兩天都沒查出問題,請教各位看能否找到問題
    發(fā)表于 04-15 06:58

    通義千問首次落地璣9300移動平臺!阿里云攜手MediaTek探索側(cè)AI智能體

    3月28日,阿里云與知名半導(dǎo)體公司MediaTek聯(lián)合宣布,通義千問18億、40億參數(shù)大模型已成功部署進璣9300移動平臺,可離線流暢運行即時且精準(zhǔn)的多輪AI對話應(yīng)用,連續(xù)推理功耗增量不到3W
    發(fā)表于 03-28 10:51 ?216次閱讀
    通義千問首次落地<b class='flag-5'>天</b>璣9300<b class='flag-5'>移動</b>平臺!阿里云攜手MediaTek探索<b class='flag-5'>端</b>側(cè)AI智能體

    AI新工具DUSt3R走紅GitHub,秒完成3D重建驚艷網(wǎng)友

    近日,一款名為DUSt3R的AI新工具在微軟旗下的GitHub平臺上引發(fā)了廣泛關(guān)注。這款神奇的工具張圖片和秒鐘的時間,便能完成精確的3D重建,且無需額外測量任何數(shù)據(jù)。
    的頭像 發(fā)表于 03-08 14:02 ?1024次閱讀

    百度開源DETRs在實時目標(biāo)檢測中勝過YOLOs

    這篇論文介紹了一種名為RT-DETR的實時檢測Transformer,是第一個實時目標(biāo)檢測
    的頭像 發(fā)表于 03-06 09:24 ?1262次閱讀
    百度<b class='flag-5'>開源</b>DETRs在<b class='flag-5'>實時</b>目標(biāo)<b class='flag-5'>檢測</b>中勝過YOLOs

    RISC-V SoC + AI | 在全志 D1「哪吒」開發(fā)板上,跑個 ncnn 神經(jīng)網(wǎng)絡(luò)推理框架的 demo

    : ① 使用 benchncnn 做基準(zhǔn)測試 ② 使用 NanoDet 模型對一張自己的圖片做目標(biāo)檢測NanoDet 是個可在移動
    發(fā)表于 02-26 10:51

    地平線正式開源Sparse4D算法

    地平線將業(yè)內(nèi)領(lǐng)先的純視覺自動駕駛算法——Sparse4D系列算法開源,推動行業(yè)更多開發(fā)者共同參與到自動駕駛、稀疏感知等前沿技術(shù)方向的探索中。目前,Sparse4D算法已在GitHub
    的頭像 發(fā)表于 01-23 10:18 ?677次閱讀

    開源操作系統(tǒng)大全

    、Fedora、openSUSE、CentOS、Red Hat 等,移動開 發(fā)領(lǐng)域使用最廣泛的 Android 也是基于 Linux 內(nèi)核開發(fā)的操作系統(tǒng)。 除了 Linux 外,還有很多其它著名的開源
    發(fā)表于 10-27 15:13