0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹一篇實(shí)時(shí)性好準(zhǔn)確率高的論文:CornerNet-Lite

DPVg_AI_era ? 來源:lp ? 2019-04-23 10:50 ? 次閱讀

本文介紹一篇實(shí)時(shí)性好準(zhǔn)確率高的論文:CornerNet-Lite。該論文由普林斯頓大學(xué)幾位學(xué)者提出。目前CornerNet-Lite被認(rèn)為是目標(biāo)檢測(cè)(Object Detection)中 FPS和mAP trade-off的最佳算法。

之所以說:“吊打YOLOv3”,因?yàn)镃ornerNet-Lite在FPS和mAP上都超過了YOLOv3,具體詳見下文介紹。

《CornerNet-Lite: Efficient Keypoint Based Object Detection》

摘要

基于關(guān)鍵點(diǎn)的方法是目標(biāo)檢測(cè)中相對(duì)較新的范例,消除了對(duì)anchor boxes的需求并提供了簡化的檢測(cè)框架?;贙eypoint的CornerNet在單級(jí)(single-stage)檢測(cè)器中實(shí)現(xiàn)了最先進(jìn)的精度。然而,這種準(zhǔn)確性來自高處理代價(jià)。在這項(xiàng)工作中,團(tuán)隊(duì)解決了基于關(guān)鍵點(diǎn)的高效目標(biāo)檢測(cè)問題,并引入了CornerNet-Lite。

CornerNet-Lite是CornerNet的兩種有效變體的組合:CornerNet-Saccade,它使用注意機(jī)制消除了對(duì)圖像的所有像素進(jìn)行徹底處理的需要,以及引入新的緊湊骨干架構(gòu)的CornerNet-Squeeze。

這兩種變體共同解決了有效目標(biāo)檢測(cè)中的兩個(gè)關(guān)鍵用例:在不犧牲精度的情況下提高效率,以及提高實(shí)時(shí)效率的準(zhǔn)確性。CornerNet-Saccade適用于離線處理,將CornerNet的效率提高6.0倍,將COCO的效率提高1.0%。

CornerNet-Squeeze適用于實(shí)時(shí)檢測(cè),提高了流行的實(shí)時(shí)檢測(cè)器YOLOv3的效率和準(zhǔn)確性(CornerNet-Squeeze為34ms|34.4mAP;COCO上YOLOv3為39ms|33mAP)。

這些貢獻(xiàn)首次共同揭示了基于關(guān)鍵點(diǎn)的檢測(cè)對(duì)于需要處理效率的應(yīng)用的潛力。

背景

CornetNet 在 ECCV 2018 (oral)上橫空出世,引領(lǐng)一波基于關(guān)鍵點(diǎn)的目標(biāo)檢測(cè)狂潮(最近anchor-free盛行),但這類算法(很多one-stage)也有缺點(diǎn)。雖然mAP有很大提升,但速度上都遠(yuǎn)不能達(dá)到實(shí)時(shí)(有些論文就避而不談FPS了)。這其實(shí)可以看成學(xué)術(shù)階段的成果,但距離落地應(yīng)用還有一點(diǎn)距離。

而 本文CornetNet-Lite 是對(duì)CornetNet進(jìn)行優(yōu)化,提出了兩種算法:

CornerNet-Saccade

CornerNet-Squeeze

CVer作者Amusi認(rèn)為:

CornerNet-Saccade是在追求高準(zhǔn)確率(mAP)的同時(shí),盡可能提高速度(FPS)。即準(zhǔn)確率優(yōu)先,對(duì)標(biāo)CornerNet等算法。創(chuàng)新點(diǎn):引入Saccade思想

CornerNet-Squeeze是追求高實(shí)時(shí)性(FPS)的同時(shí),盡可能提高準(zhǔn)確率(mAP),即速度優(yōu)先,其對(duì)標(biāo)于YOLOv3等算法。創(chuàng)新點(diǎn):引入SqueezeNet優(yōu)化思想

正文

CornerNet-Saccade

人類視覺中的 Saccades(掃視運(yùn)動(dòng))是指用于固定不同圖像區(qū)域的一系列快速眼動(dòng)。在目標(biāo)檢測(cè)算法中,我們廣義地使用該術(shù)語來表示在推理期間選擇性地裁剪(crop)和處理圖像區(qū)域(順序地或并行地,像素或特征)。

CornerNet-Saccade中的saccades是single type and multi-object。CornerNet-Saccade檢測(cè)圖像中可能的目標(biāo)位置周圍的小區(qū)域內(nèi)的目標(biāo)。它使用縮小后的完整圖像來預(yù)測(cè)注意力圖和粗邊界框;兩者都提出可能的對(duì)象位置,然后,CornerNet-Saccade通過檢查以高分辨率為中心的區(qū)域來檢測(cè)目標(biāo)。它還可以通過控制每個(gè)圖像處理的最大目標(biāo)位置數(shù)來提高效率。具體流程如下圖所示。

CornerNet-Saccade設(shè)計(jì)了一種新的backbone:Hourglass-54(含3個(gè)hourglass模塊,深度為54)。原CornerNet中使用的是Hourglass-104(含2個(gè)hourglass模塊,深度為54)。

注:crop在CornerNet-Saccade中作用非常大

CornerNet-Squeeze

與專注于subset of the pixels以減少處理量的CornerNet-Saccade相比,而CornerNet-Squeeze探索了一種減少每像素處理量的替代方法。在CornerNet中,大部分計(jì)算資源都花在了Hourglass-104上。

Hourglass-104由殘差塊構(gòu)成,其由兩個(gè)3×3卷積層和跳連接(skip connection)組成。盡管Hourglass-104實(shí)現(xiàn)了很強(qiáng)的性能,但在參數(shù)數(shù)量和推理時(shí)間方面卻很耗時(shí)。為了降低Hourglass-104的復(fù)雜性,本文將來自SqueezeNet和MobileNets 的想法融入到 lightweight hourglass 架構(gòu)中。

主要操作是:

受SqueezeNet啟發(fā),CornerNet-Squeeze將residual block 替換為SqueezeNet中的Fire module

受MobileNet啟發(fā),CornerNet-Squeeze將第二層的3x3標(biāo)準(zhǔn)卷積替換為 3x3 深度可分離卷積(depth-wise separable convolution)

具體如下表所示:

實(shí)驗(yàn)結(jié)果

開源代碼是基于PyToch1.0.0,在COCO數(shù)據(jù)集上進(jìn)行測(cè)試。測(cè)試硬件環(huán)境為:1080ti GPU + Intel Core i7-7700k CPU。

One-stage算法性能比較

CornerNet-Saccade算法性能比較

可見Hourglass-54要強(qiáng)于Hourglass-104,另外gt attention對(duì)漲點(diǎn)幫助很大

CornerNet-Squeeze算法性能比較

見證奇跡的時(shí)候來了!CornerNet-Squeeze吊打YOLOv3,因?yàn)榧词故?a href="http://srfitnesspt.com/soft/data/21-24/" target="_blank">C語言版本的YOLOv3,都已被全方位(mAP+FPS)超過。

注:日常期待一下YOLOv4,畢竟YOLOv3已經(jīng)是去年3月的"老人"了。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 檢測(cè)器
    +關(guān)注

    關(guān)注

    1

    文章

    854

    瀏覽量

    47599
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4575

    瀏覽量

    92339
  • 開源代碼
    +關(guān)注

    關(guān)注

    0

    文章

    32

    瀏覽量

    2906

原文標(biāo)題:吊打YOLOv3!普林斯頓大學(xué)提出CornerNet-Lite,已開源

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NIUSB6009 采集準(zhǔn)確率的問題?

    NIUSB6009 采集準(zhǔn)確率的問題? 、本人做個(gè)中間繼電器電性能實(shí)驗(yàn)的裝置 1、PLC帶動(dòng)中間繼電器吸合和釋放,(吸合用時(shí)1.5秒,釋放用時(shí)1.5秒)周而復(fù)始的運(yùn)動(dòng)。 2、中間繼電器的觸頭負(fù)載
    發(fā)表于 09-23 15:59

    TF之LoR:基于tensorflow實(shí)現(xiàn)手寫數(shù)字圖片識(shí)別準(zhǔn)確率

    TF之LoR:基于tensorflow實(shí)現(xiàn)手寫數(shù)字圖片識(shí)別準(zhǔn)確率
    發(fā)表于 12-19 17:05

    基于RBM實(shí)現(xiàn)手寫數(shù)字識(shí)別準(zhǔn)確率

    DL之RBM:基于RBM實(shí)現(xiàn)手寫數(shù)字識(shí)別準(zhǔn)確率
    發(fā)表于 12-28 10:19

    請(qǐng)問誰做過蟻群算法選擇圖像特征,使識(shí)別準(zhǔn)確率最高?

    請(qǐng)問誰做過蟻群算法選擇圖像特征,使識(shí)別準(zhǔn)確率最高?有學(xué)習(xí)資料或者matlab代碼可以讓我學(xué)習(xí)下嗎
    發(fā)表于 02-17 17:20

    如何提高Stm32F746G準(zhǔn)確率?

    你好帶時(shí)鐘的教程 3。如何提高準(zhǔn)確率?最好的祝福安杰伊
    發(fā)表于 01-12 07:26

    BOM準(zhǔn)確率提高方法

    BOM錯(cuò)誤造成的損失出現(xiàn)在產(chǎn)品制造、銷售和售后服務(wù)工作中,但根源在產(chǎn)品研發(fā)部門,因此BOM準(zhǔn)確率需要由專業(yè)部門進(jìn)行專門管理。
    發(fā)表于 06-13 10:37 ?5090次閱讀

    人工智能首次超過人眼準(zhǔn)確率 人臉識(shí)別準(zhǔn)確度已經(jīng)提升4個(gè)數(shù)量級(jí)

    隨著算法的提升,應(yīng)用邊界不斷擴(kuò)大,人工智能(AI)人臉識(shí)別技術(shù)的準(zhǔn)確率首次超過人眼準(zhǔn)確率,人工智能如何通過云和端改變生活和未來。
    發(fā)表于 02-06 12:42 ?1.3w次閱讀

    機(jī)器學(xué)習(xí)實(shí)用指南——準(zhǔn)確率與召回

    受試者工作特征(ROC)曲線是另個(gè)二分類器常用的工具。它非常類似與準(zhǔn)確率/召回曲線,但不是畫出準(zhǔn)確率對(duì)召回的曲線,ROC 曲線是真正例
    的頭像 發(fā)表于 06-19 15:20 ?2.1w次閱讀
    機(jī)器學(xué)習(xí)實(shí)用指南——<b class='flag-5'>準(zhǔn)確率</b>與召回<b class='flag-5'>率</b>

    AI可準(zhǔn)確識(shí)別罕見的遺傳綜合征,但要防止歧視濫用

    根據(jù)英國《自然·醫(yī)學(xué)》雜志8日在線發(fā)表的論文款人工智能在接受上萬張真實(shí)患者面部圖像訓(xùn)練后,能夠以
    發(fā)表于 03-10 10:52 ?298次閱讀

    韓國研發(fā)套基于AI的醫(yī)療影像判讀系統(tǒng) 診斷準(zhǔn)確率比人類醫(yī)生近20%

    韓國研究小組研發(fā)了套基于AI的醫(yī)療影像判讀系統(tǒng),可以通過胸部X射線篩查肺癌等肺部疾病,診斷準(zhǔn)確率比人類醫(yī)生近20%。
    發(fā)表于 04-12 16:50 ?1844次閱讀

    盤點(diǎn)下mAP最高的目標(biāo)檢測(cè)算法

    要知道 Faster R-CNN已經(jīng)是2015年提出的論文了,而YOLOv3發(fā)表出來也已經(jīng)年多了。最近目標(biāo)檢測(cè)相關(guān)的論文,比較典型的有:SNIPER、CornerNet、Extrem
    的頭像 發(fā)表于 07-13 08:10 ?1.5w次閱讀
    盤點(diǎn)<b class='flag-5'>一</b>下mAP最高的目標(biāo)檢測(cè)算法

    搜狗推出多款新品AI錄音筆,實(shí)時(shí)轉(zhuǎn)寫準(zhǔn)確率達(dá)98%

    據(jù)介紹,搜狗S1、E1兩款A(yù)I錄音筆產(chǎn)品均支持中英日韓德等10種語言、川粵津陜貴等10種方言的錄音和轉(zhuǎn)寫,實(shí)時(shí)轉(zhuǎn)寫準(zhǔn)確率達(dá)98%。最遠(yuǎn)拾音距離可達(dá)10米。
    的頭像 發(fā)表于 02-26 16:53 ?2081次閱讀

    AI垃圾分類的準(zhǔn)確率和召回達(dá)到99%

    這套邏輯和人類用眼睛、大腦、手臂工作的邏輯差不多,而且效率也足夠了。以塑料瓶為例,AI垃圾分類的準(zhǔn)確率和召回達(dá)到99%,單張圖片的識(shí)別時(shí)間不到半秒鐘。
    的頭像 發(fā)表于 06-16 15:10 ?3175次閱讀

    訊飛AI錄音筆SR702擁有多語言轉(zhuǎn)寫功能,轉(zhuǎn)寫準(zhǔn)確率

    文字的實(shí)時(shí)轉(zhuǎn)寫準(zhǔn)確率高達(dá)98%,相當(dāng)?shù)亟o力。今天我們就具體來看看它的這些功能。 多語言轉(zhuǎn)寫功能,轉(zhuǎn)寫準(zhǔn)確率 區(qū)別款錄音筆好壞的評(píng)判標(biāo)準(zhǔn)之
    的頭像 發(fā)表于 12-18 10:29 ?4262次閱讀

    ai人工智能回答準(zhǔn)確率

    人工智能(AI)回答的準(zhǔn)確率個(gè)相對(duì)的概念,會(huì)受到多個(gè)因素的影響,因此不能概而論地說其準(zhǔn)確率或低。以下是對(duì)AI回答
    的頭像 發(fā)表于 10-17 16:30 ?330次閱讀