0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

衛(wèi)星圖像進(jìn)行目標(biāo)識(shí)別仍然困難重重,美國(guó)提出了一種方法

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:李倩 ? 2018-06-30 09:41 ? 次閱讀

編者按:CV中的目標(biāo)物體識(shí)別進(jìn)步非???,但是想對(duì)衛(wèi)星圖像進(jìn)行目標(biāo)識(shí)別仍然困難重重。美國(guó)研究者就提出了一種方法——You Only Look Twice,能清晰地看到衛(wèi)星圖像中的汽車(chē)、飛機(jī)場(chǎng)上的飛機(jī)及建筑物,并開(kāi)放了代碼(見(jiàn)文末)。以下是論智帶來(lái)的編譯。

在大范圍圖像中對(duì)小目標(biāo)進(jìn)行檢測(cè)是衛(wèi)星圖像分析的主要問(wèn)題。雖然深度學(xué)習(xí)方法為基于地面的目標(biāo)檢測(cè)提供了許多方法,將這種技術(shù)轉(zhuǎn)化為圖片是非常重要的步驟。其中最大的挑戰(zhàn)就是所有像素的數(shù)量和每張圖片的地理內(nèi)容:一張DigitalGlobe(美國(guó)的一家商業(yè)空間圖像和地理空間內(nèi)容提供商,并操控?cái)?shù)臺(tái)遙感航天器)衛(wèi)星圖片涵蓋了64m2以上的土地,有超過(guò)2.5億個(gè)像素。另一個(gè)挑戰(zhàn)是,我們想要觀(guān)察的對(duì)象物體非常?。ń?jīng)常在10像素左右),這對(duì)傳統(tǒng)的計(jì)算機(jī)視覺(jué)技術(shù)來(lái)說(shuō)是一項(xiàng)很復(fù)雜的任務(wù)。為了解決這個(gè)問(wèn)題,我們提出了一個(gè)流程,即“You Only Look Twice”(只需看兩眼),它能以每秒大于0.5平方米的速度對(duì)衛(wèi)星圖像進(jìn)行評(píng)估掃描,可以快速地在不同范圍內(nèi)對(duì)目標(biāo)物體進(jìn)行檢測(cè),同時(shí)只需較少的訓(xùn)練數(shù)據(jù)。我們?cè)趫D片的原始分辨率下對(duì)圖片進(jìn)行評(píng)估,同時(shí)生成的車(chē)輛定位F1分?jǐn)?shù)大于0.8。之后我們又系統(tǒng)地測(cè)試了降低分辨率和目標(biāo)物體尺寸后的效果,最后得出當(dāng)尺寸降至5像素時(shí),系統(tǒng)的識(shí)別率仍然很高。

遇到的挑戰(zhàn)

深度學(xué)習(xí)方法在傳統(tǒng)目標(biāo)檢測(cè)上的應(yīng)用是非常重要的。而衛(wèi)星圖像的特殊性使能夠解決空間前景內(nèi)容、能進(jìn)行旋轉(zhuǎn)變換以及大范圍搜索的算法成為必要的。除了安裝細(xì)節(jié),算法還必須滿(mǎn)足以下四個(gè)條件:

小空間范圍(small spatial extent):與ImageNet數(shù)據(jù)集中的清晰大圖不同,衛(wèi)星圖像中的目標(biāo)物體通常很小,并且分布較密集。在衛(wèi)星成像領(lǐng)域,分辨率通常被定義為“地面采樣距離(GSD)”,它描述了一個(gè)像素的實(shí)際距離。商業(yè)用途的圖像尺寸在DigitalGlobe的30厘米GSD到衛(wèi)星成像的3—4米GSD左右。這意味著,即使在最高的分辨率下,汽車(chē)之類(lèi)的小目標(biāo)也只有15像素左右大小。

完全的旋轉(zhuǎn)不變性(rotation invariance):從空中看到的物體可能會(huì)有各種朝向。比如,船行進(jìn)的方向可能有許多中,但是像ImageNet中的大樹(shù)卻總是垂直的。

訓(xùn)練樣本頻率(training example frequency):訓(xùn)練數(shù)據(jù)相對(duì)不足。

極高分辨率(ultra high resolution):輸入的圖像非常大,常常有百萬(wàn)像素。所以簡(jiǎn)單地對(duì)輸入圖像尺寸進(jìn)行下采樣不合適。

DigitalGlobe在巴拿馬運(yùn)河附近拍攝的8×8km(約16000×16000像素)的圖像,GSD為50cm。紅框表示416×416像素大小的區(qū)域

You Only Look Twice

為了解決模型無(wú)法檢測(cè)像素過(guò)小的目標(biāo)、難以生成全新比例的圖像等限制,我們提出了一種經(jīng)過(guò)優(yōu)化的為衛(wèi)星圖像目標(biāo)檢測(cè)框架:You Only Look Twice(YOLT)。我們擴(kuò)展了Darknet神經(jīng)網(wǎng)絡(luò)框架,同時(shí)更新了一些C函數(shù)庫(kù)一共地理空間圖像分析,并且整合了外部Python庫(kù)。我們選擇Python用戶(hù)社群來(lái)進(jìn)行預(yù)處理和后處理。在更新完C代碼和進(jìn)行預(yù)處理和后處理之間,參與者無(wú)需對(duì)C有深入了解。

網(wǎng)絡(luò)結(jié)構(gòu)

為了減少模型的粗糙度同時(shí)增強(qiáng)檢測(cè)密集物體時(shí)的精確度,我們所使用的是一個(gè)具有22層的網(wǎng)絡(luò),并且以16為系數(shù)進(jìn)行降采樣。所以輸入一張416×416像素的圖片會(huì)生成一個(gè)26×26的網(wǎng)格。該網(wǎng)絡(luò)受30層的YOLO啟發(fā),經(jīng)過(guò)優(yōu)化后專(zhuān)為檢測(cè)小型密集對(duì)象。密集網(wǎng)格對(duì)散布型場(chǎng)景(如機(jī)場(chǎng))可能不太重要,但是對(duì)高密度場(chǎng)景(如停車(chē)場(chǎng))非常重要。

空中成像的目標(biāo)物體檢測(cè)對(duì)標(biāo)準(zhǔn)網(wǎng)絡(luò)架構(gòu)的挑戰(zhàn)。兩張圖片來(lái)自統(tǒng)一數(shù)據(jù)集。左圖中的模型將4000×4000像素的測(cè)試圖像降采樣到416×416,圖中共有1142輛車(chē),沒(méi)有一輛被識(shí)別出來(lái)。右圖中的模型同樣是416×416,漏報(bào)率過(guò)多是由于車(chē)輛密度太大,13×13的網(wǎng)格無(wú)法將它們分辨出來(lái)

為了提高模型識(shí)別小物體的準(zhǔn)確度,我們還加入了一個(gè)穿透層,與最后的52×52圖層連接起來(lái)成為最后的卷積層,可以讓探測(cè)器獲得擴(kuò)展后的特征向量更細(xì)微的特征。

測(cè)試過(guò)程

在測(cè)試時(shí),我們將不同尺寸的測(cè)試圖片分割成可操作的小圖,并將每個(gè)小圖在訓(xùn)練過(guò)的模型上進(jìn)行實(shí)驗(yàn)。如下圖所示:

測(cè)試過(guò)程是從左圖移動(dòng)到右圖,重疊部分在右下圖中用紅色表示。重疊部分的非極大抑制對(duì)于改善小圖邊緣的目標(biāo)檢測(cè)是非常有必要的

許多衛(wèi)星成像的性能都依賴(lài)于其內(nèi)部拍攝全局大圖的能力。所以,小型圖像芯片遠(yuǎn)不如由衛(wèi)星平臺(tái)自己拍攝的大型圖像。物體檢測(cè)的最后一步就是將成百上千張測(cè)試芯片連接到最后的圖像層中。

目標(biāo)檢測(cè)結(jié)果

最初,我們想只訓(xùn)練一個(gè)分類(lèi)器,讓其能夠辨認(rèn)交通工具、基礎(chǔ)設(shè)施等許多種類(lèi)的物體。但是結(jié)果并不理想,在對(duì)機(jī)場(chǎng)的識(shí)別中,我們發(fā)現(xiàn)這樣的結(jié)果:

這一通用模型產(chǎn)生了較差的結(jié)果。檢測(cè)到的飛機(jī)被紅框圈起來(lái),可以看到還有幾架被遺漏。另外藍(lán)框內(nèi)是被模型誤解的“跑道”

要解決這一問(wèn)題,我們?cè)囍眯l(wèi)星成像中的規(guī)模信息,運(yùn)行兩個(gè)不同的分類(lèi)器:一個(gè)用于識(shí)別交通工具和建筑,另一個(gè)用來(lái)檢查機(jī)場(chǎng)。第一種分類(lèi)器的尺寸為200m,第二種為2500m。我們將測(cè)試照片分成合適尺寸的小圖,然后將每張小圖輸入到分類(lèi)器中。最終將多個(gè)分類(lèi)器的結(jié)果結(jié)合成最后一張圖像,我們發(fā)現(xiàn)檢測(cè)率在0.3和0.4之間的生成的F1分?jǐn)?shù)最高。以下是目標(biāo)檢測(cè)器在各個(gè)類(lèi)別下的表現(xiàn):

可以看到,YOLT在機(jī)場(chǎng)、飛機(jī)和船幾個(gè)類(lèi)別中表現(xiàn)得很好

細(xì)節(jié)表現(xiàn)分析

接著,我們?cè)贑OWC數(shù)據(jù)集上測(cè)試了YOLT對(duì)汽車(chē)的檢測(cè)結(jié)果,下圖是在每個(gè)場(chǎng)景中模型的F1分?jǐn)?shù)以及對(duì)汽車(chē)數(shù)量計(jì)算的精確度:

上面的圖示COWC中每個(gè)測(cè)試場(chǎng)景的F1分?jǐn)?shù),下面的圖是將檢測(cè)次數(shù)作為標(biāo)準(zhǔn)數(shù)值的一部分

不同分辨率下的目標(biāo)檢測(cè)。左圖的GSD為15cm,F(xiàn)1分?jǐn)?shù)為0.94。右圖的GSD為90cm,F(xiàn)1分?jǐn)?shù)為0.84

結(jié)語(yǔ)

目標(biāo)檢測(cè)算法在定位類(lèi)似ImageNet數(shù)據(jù)集中的圖片上取得了巨大進(jìn)步,但是這類(lèi)算法通常不適合用于衛(wèi)星圖片中的目標(biāo)檢測(cè)。為了解決這一限制,我們提出了一種完全卷積的神經(jīng)網(wǎng)絡(luò)模型(YOLT),它能快速定位衛(wèi)星圖片中的汽車(chē)、建筑和機(jī)場(chǎng)。最終的F1分?jǐn)?shù)從0.6到0.9不等,取決于不同的檢測(cè)種類(lèi)。代碼目前已在GitHub上開(kāi)放.

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:“只需看兩次”——對(duì)衛(wèi)星圖像進(jìn)行快速目標(biāo)識(shí)別的新方法

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    一種基于圖像平移的目標(biāo)檢測(cè)框架

    1、摘要近年來(lái),在深度卷積神經(jīng)網(wǎng)絡(luò)(CNNs)的幫助下,圖像和視頻監(jiān)控在智能交通系統(tǒng)(ITS)中取得了長(zhǎng)足的進(jìn)展。作為一種先進(jìn)的感知方法,智能交通系統(tǒng)對(duì)視頻監(jiān)控中每幀感興趣的
    發(fā)表于 08-31 07:43

    一種適用于空間觀(guān)測(cè)任務(wù)的實(shí)時(shí)多目標(biāo)識(shí)別算法分享

    基于嵌入式圖像處理平臺(tái)的實(shí)時(shí)多目標(biāo)識(shí)別算法人工智能技術(shù)與咨詢(xún) 昨天本文來(lái)自《科學(xué)技術(shù)與工程》,作者王旭輝等摘 要提出了一種適用于空間觀(guān)測(cè)任務(wù)的實(shí)時(shí)多
    發(fā)表于 12-21 07:02

    基于NMI特征的目標(biāo)識(shí)別與跟蹤

    本文提出一種全新的圖像分割方法——連通線(xiàn)多級(jí)切割方法,并在此基礎(chǔ)上建立圖像NMI特征的
    發(fā)表于 07-15 10:36 ?20次下載

    基于USB和目標(biāo)識(shí)別圖像采集系統(tǒng)的設(shè)計(jì)實(shí)現(xiàn)

    介紹了一種目標(biāo)識(shí)別功能的圖像采集系統(tǒng),用USB 接口芯片實(shí)現(xiàn)了數(shù)據(jù)的傳輸。闡述了系統(tǒng)的硬件、固件、設(shè)備驅(qū)動(dòng)程序和應(yīng)用軟件的設(shè)計(jì)與實(shí)現(xiàn)方法。詳細(xì)介紹了
    發(fā)表于 08-13 08:42 ?14次下載

    基于小波域NMF特征提取的SAR圖像目標(biāo)識(shí)別方法

    該文提出了一種基于小波域非負(fù)矩陣分解特征提取的合成孔徑雷達(dá)圖像目標(biāo)識(shí)別方法。該方法對(duì)圖像二維離散
    發(fā)表于 11-21 11:58 ?21次下載

    一種基于輪廓分析的圖像特征點(diǎn)檢測(cè)方法

    圖像特征點(diǎn)檢測(cè)是圖像匹配、目標(biāo)識(shí)別以及運(yùn)動(dòng)估計(jì)等領(lǐng)域的項(xiàng)關(guān)鍵技術(shù)。本文對(duì)圖像輪廓二維信息進(jìn)行
    發(fā)表于 12-14 13:30 ?15次下載

    運(yùn)動(dòng)目標(biāo)識(shí)別與跟蹤系統(tǒng)的研究

    提出了一種運(yùn)動(dòng)目標(biāo)識(shí)別與跟蹤系統(tǒng)的方案,給出了系統(tǒng)的原理圖和結(jié)構(gòu)框圖。重點(diǎn)論述了圖像處理的過(guò)程和算法,包括顏色模型的選擇,
    發(fā)表于 07-20 16:14 ?29次下載

    軍事假目標(biāo)識(shí)別的新方法

    通常的偵察手段對(duì)于軍事假目標(biāo)識(shí)別能力有限,文中提出了一種新的軍事假目標(biāo)識(shí)別方法。在介紹偏振成像機(jī)理的基礎(chǔ)上,分析了偏振信息檢測(cè)和強(qiáng)度信息檢
    發(fā)表于 08-29 15:11 ?36次下載
    軍事假<b class='flag-5'>目標(biāo)識(shí)別</b>的新<b class='flag-5'>方法</b>

    基于相關(guān)分析的飛機(jī)目標(biāo)識(shí)別方法

    提出了一種基于相關(guān)分析的飛機(jī)目標(biāo)識(shí)別方法。該方法利用飛機(jī)圖像低頻和高頻部分合成濾波器模板,能達(dá)到很高識(shí)別
    發(fā)表于 09-02 14:54 ?21次下載

    基于SIFT視覺(jué)詞匯的目標(biāo)識(shí)別算法

    針對(duì)被局部遮擋目標(biāo)識(shí)別困難的問(wèn)題,將目標(biāo)圖像的SIFT( Scale Invariant Feature Transform)特征矢量作為視覺(jué)單詞,應(yīng)用視覺(jué)詞匯算法,
    發(fā)表于 11-14 11:04 ?5次下載
    基于SIFT視覺(jué)詞匯的<b class='flag-5'>目標(biāo)識(shí)別</b>算法

    基于擴(kuò)展字典稀疏表示分類(lèi)的遙感目標(biāo)識(shí)別

    針對(duì)遙感圖像視覺(jué)對(duì)比度差、分辨率低及目標(biāo)含有不同角度旋轉(zhuǎn)的情況,在稀疏表示分類(lèi)識(shí)別的基礎(chǔ)上,提出一種基于擴(kuò)展字典稀疏表示的遙感
    發(fā)表于 11-17 17:18 ?9次下載
    基于擴(kuò)展字典稀疏表示分類(lèi)的遙感<b class='flag-5'>目標(biāo)識(shí)別</b>

    一種圖像拼接的運(yùn)動(dòng)目標(biāo)檢測(cè)方法

    圖像拼接中出現(xiàn)的運(yùn)動(dòng)目標(biāo)可能使拼接出現(xiàn)不能正常拼接或者拼接出多重影像的現(xiàn)象。本文提出一種圖像拼接的運(yùn)動(dòng)
    發(fā)表于 12-08 10:05 ?2次下載

    基于8片TMS320C6416的衛(wèi)星圖像目標(biāo)提取高速處理系統(tǒng)

    電子發(fā)燒友網(wǎng)站提供《基于8片TMS320C6416的衛(wèi)星圖像目標(biāo)提取高速處理系統(tǒng).pdf》資料免費(fèi)下載
    發(fā)表于 10-19 14:35 ?1次下載
    基于8片TMS320C6416的<b class='flag-5'>衛(wèi)星圖像</b><b class='flag-5'>目標(biāo)</b>提取高速處理系統(tǒng)

    機(jī)器視覺(jué)的圖像目標(biāo)識(shí)別方法操作要點(diǎn)

    通過(guò)加強(qiáng)圖像分割,能夠提高機(jī)器視覺(jué)的圖像目標(biāo)識(shí)別的自動(dòng)化水平,使得圖像目標(biāo)識(shí)別效果更加顯著。圖像
    發(fā)表于 01-15 12:17 ?354次閱讀

    機(jī)器視覺(jué)的圖像目標(biāo)識(shí)別方法綜述

    文章來(lái)源:MEMS引言從20世紀(jì)80年代開(kāi)始,機(jī)器視覺(jué)技術(shù)的發(fā)展速度不斷加快,已經(jīng)走進(jìn)了人們的日常生活與工作之中。機(jī)器視覺(jué)的圖像目標(biāo)識(shí)別系統(tǒng)的自動(dòng)化程度較高,應(yīng)用范圍廣,尤其在危險(xiǎn)場(chǎng)所的運(yùn)用,采用
    的頭像 發(fā)表于 02-23 08:26 ?641次閱讀
    機(jī)器視覺(jué)的<b class='flag-5'>圖像</b><b class='flag-5'>目標(biāo)識(shí)別方法</b>綜述