0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于深度學習的視覺SLAM綜述

INDEMIND ? 來源:INDEMIND ? 作者:INDEMIND ? 2022-12-02 15:00 ? 次閱讀

隨著計算機視覺機器人技術的發(fā)展,視覺同時定位與地圖創(chuàng)建已成為無人系統(tǒng)領域的研究焦點,深度學習在圖像處理方面展現(xiàn)出的強大優(yōu)勢,為二者的廣泛結合創(chuàng)造了機會??偨Y了深度學習與視覺里程計、閉環(huán)檢測和語義同時定位與地圖創(chuàng)建結合的突出研究成果,對傳統(tǒng)算法與基于深度學習的方法做了對比,展望了基于深度學習的視覺同時定位與地圖創(chuàng)建發(fā)展方向。

01引言

同時定位與地圖創(chuàng)建(Simultaneous Localization and Mapping,SLAM),是指在陌生環(huán)境中,機器實現(xiàn)環(huán)境感知、理解和完成自身定位,以及路徑規(guī)劃[1-2]。在某些特殊場合可以代替人工,比如軍事,交通,服務業(yè)等領域。長期以來,定位是實現(xiàn)路徑規(guī)劃的前提,在定位時,機器的首要任務是對周圍環(huán)境的感知,然后對其刻畫?,F(xiàn)有許多針對已知先驗環(huán)境信息的機器自主定位和地圖創(chuàng)建的解決方法[1]。但是在大多情況下,事先獲取環(huán)境先驗信息很困難,因此,需要機器在陌生環(huán)境中,移動時一邊計算自身位置,一邊創(chuàng)建環(huán)境地圖[3]。這也促進了SLAM的研究,隨著算法和傳感器的發(fā)展,SLAM研究近些年來取得了巨大突破。

SLAM本質上是一個狀態(tài)估計問題,根據(jù)傳感器做劃分,主要是激光、視覺兩大類。激光SLAM的研究在理論和工程上都比較成熟,現(xiàn)有的很多行業(yè)已經開始使用激光SLAM完成工業(yè)工作;而視覺SLAM (Visual SLAM,VSLAM)是將圖像作為主要環(huán)境感知信息源的SLAM系統(tǒng),VSLAM以計算相機位姿為主要目標,通過多視幾何方法構建3D地圖[4],視覺SLAM還處于實驗室研究階段,實際應用較少。SLAM系統(tǒng)的處理過程一般都是分為2個階段:幀間估計和后端優(yōu)化[5],這種處理方式是由PTAM[6]首先提出并實現(xiàn)的,它區(qū)分出前后端完成特征點跟蹤和建圖的并行化,前端跟蹤需要實時響應圖像數(shù)據(jù),地圖優(yōu)化放在后端進行,后續(xù)許多視覺SLAM系統(tǒng)設計也采取類似的結構[5]。另外,PTAM也是第一個在后端優(yōu)化使用非線性優(yōu)化的系統(tǒng),提出了關鍵幀(keyframes)機制,不用精細處理每一幅圖像,而是把幾個關鍵圖像串起來優(yōu)化其軌跡和地圖。在整個SLAM系統(tǒng)中,幀間估計是根據(jù)相鄰兩幀間的傳感器信息獲取該時間間隔內的運動估計,后端優(yōu)化指對之前幀間估計產生的路徑累積漂移誤差做優(yōu)化,解決機器檢測到路徑閉環(huán)后歷史軌跡的優(yōu)化問題。與激光SLAM相比,視覺SLAM對色彩和紋理等信息更敏感,在提高幀間的估計精度和閉環(huán)檢測方面有巨大潛力。

傳統(tǒng)的VSLAM分為特征點法和直接法。特征點法從每幀圖片中提取分布均勻的角點和周圍的描述子,通過這些角點周圍的描述子的不變性完成幀間匹配,接下來使用對極幾何恢復相機姿態(tài)并確定地圖坐標,最終根據(jù)最小化重投影誤差完成相機位姿和地圖的微調[7]。而直接法是根據(jù)光度誤差確定相機位姿和地圖的,不用提取角點和描述子,正因為這樣,直接法不能表征一張圖像的全局特征,直接法的閉環(huán)檢測面臨的累積漂移的消除問題一直沒有得到很好的解決[8]。

傳統(tǒng)的VSLAM方法仍面對以下幾個問題:

(1) 對光照較為敏感,在光照條件惡劣或者光照情況復雜的環(huán)境中魯棒性不高;

(2) 相機運動幅度較大時,傳統(tǒng)方法的特征點追蹤容易丟失;

(3) 對于場景中的動態(tài)對象的處理不夠理想;

(4) 計算量大,系統(tǒng)響應較慢。

近些年,計算機視覺與深度學習相互結合,促使視覺相關任務的準確率、執(zhí)行效率以及魯棒性等實際表現(xiàn)得到了巨大提升,比如實例分類[9]、對象檢測[10]、行為識別[11]等領域的表現(xiàn)。VSLAM系統(tǒng)以計算機視覺為基礎,這為神經網絡在該領域的應用提供了很大的發(fā)揮空間。將深度學習與VSLAM結合,有以下優(yōu)勢:

(1) 基于深度學習的VSLAM系統(tǒng)有很強的泛化能力,可以在光線復雜的環(huán)境中工作;

(2) 對于動態(tài)物體的識別和處理更加有效;

(3) 采用數(shù)據(jù)驅動的方式,對模型進行訓練,更符合人類與環(huán)境交互的規(guī)律。有很大的研究和發(fā)展空間;

(4) 采用神經網絡可以更好地將圖像信息與其他傳感器地數(shù)據(jù)融合,優(yōu)化幀間漂移;

(5) 更高效地提取語義信息,有益于語義SLAM[12]的構建和場景語義的理解;

(6) 端到端的VSLAM,舍去前端點跟蹤、后端優(yōu)化求解的一系列過程,直接輸入圖像給出位姿估計。

深度學習一般用在VSLAM系統(tǒng)的一個或多個環(huán)節(jié),基于前述分析,本文對基于深度學習的VSLAM方法做了廣泛調研。主要針對基于深度學習的視覺里程計[13-14]、閉環(huán)檢測[15-16]和語義SLAM做出了綜述,并討論了基于深度學習的VSLAM的研究方向和發(fā)展趨勢。

02VSLAM與深度學習的相關結合

VSLAM可以構建周圍環(huán)境的3D地圖,并計算相機的位置和方向。深度學習和SLAM的結合是近幾年比較熱的一個研究方向,常用深度學習方法替換傳統(tǒng)SLAM中的一個或幾個模塊。

2.1深度學習與視覺里程計

移動機器人完成自主導航,首先需要確定自身的位置和姿態(tài),即定位。視覺里程計(Visual Odometry,VO)通過跟蹤相鄰圖像幀間的特征點估計相機的運動,并對環(huán)境進行重建。VO大多借助計算幀間的運動估計當前幀的位姿?;谏疃葘W習的視覺里程計,無需復雜的幾何運算,端到端的運算形式使得基于深度學習的方法更簡潔。

Daniel和Malisiewicz[17]提出的網絡架構完成點跟蹤,得到相鄰幀間的單應性。如圖1所示,該模型主要特點是利用2個CNN[18]的協(xié)作生成單應性矩陣,完成相機位姿的估計。第一個稱為MagicPoint網絡,提取單張圖像的顯著點,網絡采用類似VGG[9]風格的結構,對灰度圖進行運算,并為每個像素輸出一個“點”概率,在最后生成的張量中每個空間位置代表分布在一個局部8×8區(qū)域的概率,加上一個沒有被檢測點的垃圾通道,再通過上采樣生成帶特征點標記的熱圖。第二個名為MagicWarp,對MagicPoint的輸出進行操作,結構與第一個網絡類似,將卷積后的兩幀圖片對應的張量連接起來,通過特征點的匹配來獲取單應性矩陣,然后估計跟輸入有關的單應性。系統(tǒng)速度快且規(guī)模小,可以在單核CPU達到每秒處理30幀的速度。模型在訓練之前,手工標定了一個包含各種特征點的數(shù)據(jù)集,比如:角,邊,以及幾何特征不明顯的曲線等特征,用于訓練MagicPoint,為了MagicWarp參數(shù)的學習,設計了一個基于點云的三維相機運動軌跡的數(shù)據(jù)集,實現(xiàn)從三維向二維空間的映射,找到相鄰幀間相機位姿的變化矩陣,發(fā)現(xiàn)特征點的單應性,這樣也更符合人類的感知。但是該模型不得不面對的一個問題是它只能追蹤相鄰兩幀圖像的低級特征點,完成位姿估計,由于對上下文環(huán)境信息沒有記憶,所以得到結果精度還有待提高。

b936ecf4-71f5-11ed-8abf-dac502259ad0.jpg

圖1MagicPoint和MagicWarp結構[17]Fig. 1MagicPoint and MagicWarp[17]

雖然深度學習已經成為解決很多計算機視覺問題的主流方法,并取得了不錯的效果,但是關于VO的研究非常有限,尤其在三維幾何問題上。因為現(xiàn)有的神經網絡結構和預訓練模型大多是為了解決識別和分類問題而設計的,這也就驅使深度卷積神經網絡(CNNs)從圖像中提取更高層次的外觀信息。學習圖像的表象特征,限制了VO只在經過訓練的環(huán)境中發(fā)揮作用,這也是傳統(tǒng)VO算法嚴重依賴幾何特征而不是外觀特征的原因。同時,運動是一個連續(xù)的變化過程,理想的VO算法應該針對一系列圖像的變化和連接來建模,而不是處理單個圖像,這也意味著我們要對圖像序列學習。

相較于MagicPoint和MagicWarp僅針對兩幀圖像的基礎幾何特征完成單應性估計,Wang等[19]針對圖像序列提出了一種基于深度學習的單目VO的DeepVO算法,如圖2所示,直接從原始RGB圖像提取實例表征完成姿態(tài)估計。證明了單目VO問題可以通過基于深度學習端到端的方式高效解決,提出了一個RCNN[20]架構,利用CNN學習到的實例表征表示,使基于深度學習的VO算法能夠適應全新的環(huán)境,對于圖像序列的序列依賴性和復雜運動,利用深度遞歸神經網絡實現(xiàn)隱式封裝和自動學習。DeepVO由基于CNN的特征提取和基于RNN[21]的特征序列模型兩部分組成。提出端到端的VO系統(tǒng)架構,如圖2所示,以視頻剪輯或單目圖像序列作為輸入,每個時間戳內,通過RGB圖像幀減去訓練集的平均RGB值進行預處理,將2幅連續(xù)的圖像疊加在一起,形成一個張量,訓練深度RCNN提取運動信息和估計姿態(tài)。采用長短時記憶(LSTM[22])作為RNN,它通過引入記憶門和記憶單元來學習上下文依賴關系。具體來說,將圖像張量輸入CNN,生成一個有效的單目VO特征,然后通過LSTM進行序列學習,每個圖像對在通過網絡的每個時間戳產生一個位姿估計。CNN部分使用非線性單元(ReLU)激活,獲取顯著特征,使用0-padding保留卷積后張量的空間維數(shù)。每個時刻使用LSTM更新狀態(tài)狀態(tài),為了學習神經網絡的超參θ,損失函數(shù)由位置向量p和角度變量φ組成的均方誤差構成:

b9637c74-71f5-11ed-8abf-dac502259ad0.jpg

(1)

式中:||·||為2范數(shù);κ是一個比例因子用來平衡位置和角度的權重;N為樣本數(shù)量;角度φ用歐拉角定義。他們采用的這種VO方法它不依賴于位姿估計的傳統(tǒng)VO,通過將CNN和RNN相結合,實現(xiàn)了VO的特征提取和序列建模的同時進行,無需對VO系統(tǒng)的參數(shù)進行仔細調整。

b97859b4-71f5-11ed-8abf-dac502259ad0.jpg

圖2DeepVO網絡結構[19]Fig. 2Architecture of DeepVO[19]

針對DeepVO這類數(shù)據(jù)驅動的網絡,常對于隱藏在數(shù)據(jù)背后的規(guī)律比較敏感,所以對于類似標簽誤差這種信息干擾,DeepVO具備良好的魯棒性及擬合能力,體現(xiàn)了數(shù)據(jù)驅動模型的一個顯著優(yōu)勢。雖然基于深度學習的VO方法在相機的位姿估計方面得到了一些結果,但是目前還不能取代基于幾何的方法,深度學習方法是一個可行的補充,把幾何用深度神經網絡的特征表示、知識以及模型做有機結合,進一步提高VO的準確性和魯棒性是目前可以預見的發(fā)展方向。

2.2深度學習與閉環(huán)檢測

閉環(huán)檢測應用在機器人建圖環(huán)節(jié),新采集到一張圖像,判斷它是否在圖像序列中出現(xiàn)過,即確定機器人是否進入某同一歷史地點,或者在特征點配準丟失后重新獲取一個初始位置。高效的閉環(huán)檢測是SLAM精確求解的基礎,幀間匹配主要集中在誤差累積的消除,圖優(yōu)化算法能夠有效地降低累計誤差。閉環(huán)檢測實質上是場景的識別問題,傳統(tǒng)SLAM的閉環(huán)檢測通過手工提取的稀疏特征或者像素稠密的特征完成匹配,深度學習則采用神經網絡學習圖片深層次特征的方法,場景識別率的表現(xiàn)更好。所以,基于深度學習的場景識別方法能夠有效提升閉環(huán)檢測的準確率[23]。

許多研究人員針對閉環(huán)檢測問題在網絡訓練和數(shù)據(jù)處理方面做了部分優(yōu)化。比如文獻[24]提出的方法不是直接對整幅圖像做特征提取,而是根據(jù)預訓練的網絡提取圖像中的路標區(qū)域,然后通過ConvNet[27]計算每塊區(qū)域的特征并將其壓縮,完成路標區(qū)域的特征匹配之后,利用各個路標區(qū)域的相似性來計算全局圖像之間的相似性,為了降低假陽性出現(xiàn)的概率,模型把路標區(qū)域框的范圍作為監(jiān)督條件。該方法顯著提升了面對場景中視點變化或局部遮擋的魯棒性。

為了提高閉環(huán)檢測的準確率和效率,Yi等[25]提出了一種BoCNF的特征詞袋匹配方法,該方法以視覺詞袋法為基礎,將CNN提取到的特征建立視覺詞袋,通過Hash隨機映射[26]將降維的視覺詞和詞袋特征關聯(lián),實現(xiàn)快速準確的場景識別。

BoCNF基于BoW (Bag of Visual Word)的想法將提取的視覺特征量化為離線的視覺詞匯的視覺詞,然后構建用于在線檢索匹配圖像的倒排索引,如圖3所示。與其他基于BoW的算法類似,他們的框架包括離線階段和在線階段,每個階段包括2個部分。在離線和在線階段的開始,數(shù)據(jù)庫圖像或查詢圖像的ConvNet功能分兩步提?。旱貥藱z測和ConvNet特征提取[23]。離線階段,將數(shù)據(jù)庫圖像的ConvNet特征提取并把它們量化為視覺詞之后,執(zhí)行倒排索引構建,將視覺詞鏈接到數(shù)據(jù)庫圖像。在線階段,在將查詢圖像的ConvNet特征提取并將其量化為視覺詞之后,在稱為粗略匹配的階段中,首先使用倒排索引檢索前K候選數(shù)據(jù)庫圖像,隨后精細匹配執(zhí)行通過基于Hash的投票方案在前K個候選者中找到與查詢圖像的最終匹配。

b99e1ba4-71f5-11ed-8abf-dac502259ad0.jpg

圖3BoCNF特征匹配流程[25]Fig. 3Generation process of node-link graph[25]

深度VSLAM采用學習的方式,以后的發(fā)展與人類的感知和思考方式會更加相似。文獻[28]構建的模型的輸入為圖像序列,第一步根據(jù)Local Pose Estimation Network[29]計算圖像間的相對位姿,然后通過位姿聚合方法壓縮相對位姿信息,把計算結果輸入到Neural Graph Optimization網絡,輸出相對位姿的全局絕對位姿信息,通過Soft Attention模型提取關鍵信息,生成各幀之間的相似性矩陣,利用相似性矩陣完成SLAM中的閉環(huán)檢測,輸出整個的路徑地圖,把模型的輸出與真實路徑的差異作為損失函數(shù)。該方法在模擬環(huán)境中表現(xiàn)優(yōu)秀,證明了Soft Attention[30]模型在閉環(huán)檢測環(huán)節(jié)的作用。根據(jù)觀察該模型的實驗表現(xiàn),在實際環(huán)境中沒有達到預期的效果,但是端到端的學習模式,和整個模型的數(shù)據(jù)處理過程,符合人類的感知過程,未來有很大的發(fā)展空間。

2.3深度學習與語義SLAM

語義SLAM在建圖過程中獲取環(huán)境幾何信息的同時,識別環(huán)境里的獨立對象,獲取其位置、姿態(tài)和個體輪廓等語義信息擴展了傳統(tǒng)SLAM問題的研究內容,將一些語義信息集成到SLAM的研究中,以應對復雜場景的要求[31]。其實語義特征,本質上把局部特征進一步歸納,達到人類可以理解的分類層面。

在深度學習算法流行之前,物體識別方向評價最好的Bag of Visual Word算法將之前數(shù)據(jù)處理提取的SIFT[32]等特征融合成復雜且全面的特征,再送到分類器進行分類。其實對于深度學習方法,圖像的語義表征也是一層層抽象的,根據(jù)對神經網絡各層輸出進行可視化的結果,我們發(fā)現(xiàn)底層網絡中提取出的特征大部分是點線等的低層語義,中間層的網絡將圖像特征抽象為一些標識物的局部部件,而在頂層的圖像特征上升到了物體的級別,逐層特征提取抽象,這是神經網絡的又一突出優(yōu)勢。

Lei等[33]以對象分類、語義分割為基準,提出了基于八叉樹的球形卷積核CNN,用于處理3D點云數(shù)據(jù)。將圖片轉換成原始點云,并基于八叉樹的結構做空間劃分,把球形卷積核作用到網絡的每一層,對特征實現(xiàn)分層下采樣,球形卷積核把點xi附近的空間劃分為多個體積小塊。針對第j個鄰接點xj,卷積核首先確定其對應的體積小塊,并通過該小塊的權重矩陣Wk來計算激活值。該模型對特征分層下采樣并根據(jù)空間分區(qū)構建3D鄰域,代替常用的K-NN[34]范圍搜索,一定程度上減少了計算和存儲成本,適合高分辨率輸入。通過神經元和3D點空間位置的對應關系確定該點需要使用的球形卷積核,根據(jù)這種關聯(lián)避免訓練過程中生成動態(tài)卷積核,達到高效、高分辨率的點云學習。

目前的語義SLAM研究還處于初級階段,但其前景廣闊。語義SLAM的難點在于誤差函數(shù)的設定,將深度學習的檢測或分割結果作為一個觀測值,融入SLAM的優(yōu)化問題中一起聯(lián)合優(yōu)化,同時還需要做到GPU的實時[35]。

Girisha等[36]針對無人機航拍視頻提出了一種語義解析的方法。如圖4所示,鏡頭邊界檢測算法首先用于識別關鍵幀,隨后,通過使用U-Net[37],對這些關鍵幀執(zhí)行語義分割,航拍數(shù)據(jù)頻率為29 fps,每個連續(xù)幀之間變化是微小的,因此,使用鏡頭邊界檢測算法來識別關鍵幀,以便于單幀和幀與幀之間的分析。而關鍵幀識別的過程,目的是從連續(xù)幀中識別出鏡頭邊界,并且將整個模塊用關鍵幀表示。通過將每一幀劃分為16×16大小的非重疊網格來識別每一幀的鏡頭邊界。采用卡方距離計算相鄰兩幀之間相應的網格直方圖差:

b9c510d8-71f5-11ed-8abf-dac502259ad0.jpg

(2)


式中:Hi為第i幀直方圖;Hi+1為第(i+1+幀直方圖;I為兩幀中同一位置的圖像塊。連續(xù)兩幀之間的直方圖平均差計算如下:

b9db8c96-71f5-11ed-8abf-dac502259ad0.jpg

(3)

式中:D為連續(xù)兩幀的平均直方圖差;dk為第k個圖像塊之間的卡方差;N為圖像中圖像塊的總數(shù)。在直方圖差異大于閾值Tshot的幀上識別鏡頭邊界,利用語義分割算法對識別出的關鍵幀進行進一步處理,識別出場景中出現(xiàn)的各種對象(綠化、道路)。U-Net利用contracting path中提取的特征進行反卷積完成區(qū)域定位,在contracting path實現(xiàn)卷積運算,然后再通過ReLU激活函數(shù)提取特征。改進后的網絡可以處理256×256大小的彩色圖像(RGB),而不僅僅是灰度圖像,這是通過在每一層使用3D卷積操作來實現(xiàn)的。除了最大池化操作,每個層還考慮填充,以保留最相關的特性,以便進一步處理。另外,Bowman等[38]提出了一種將尺度信息和語義信息融合的理論框架,在語義SLAM的概率數(shù)據(jù)融合上做的工作具有創(chuàng)新性,引入EM估計[39]把語義SLAM轉換成概率問題,優(yōu)化目標仍然是常用的重投影誤差。

b9f10184-71f5-11ed-8abf-dac502259ad0.jpg

圖4修改后的U-Net結構[37]Fig. 4Modified U-Net structure[37]

03深度學習方法與傳統(tǒng)VSLAM對比

用深度學習做端到端的VSLAM非常直接,能夠繞開許多傳統(tǒng)VSLAM系統(tǒng)中極為麻煩的環(huán)節(jié),如外參標定、多傳感器頻率的匹配,同時可以避開前后端算法中一些棘手的問題。結合深度學習作為一種新的VSLAM實現(xiàn)方法有很強的理論意義,但是端到端VSLAM的問題也非常明顯,如表1所示。

表1VSLAM算法與基于深度學習的VSLAM方法的對比Tab. 1Comparison between traditional VSLAM algorithm and VSLAM method based on deep learning

ba39ee76-71f5-11ed-8abf-dac502259ad0.jpg

VSLAM這樣一個包含很多幾何模型數(shù)學的問題,通過深度學習去端到端解決,使用數(shù)據(jù)驅動的形式去學習,在原理上是完全沒有依據(jù)的,而且也沒理由能得到高精度解。另一個很大的問題是模型的泛化性很難得到保證,傳統(tǒng)的VSLAM系統(tǒng)通常是一個很復雜的結構,從前端到后端每一步操作都有明確的目的,傳統(tǒng)方法每個環(huán)節(jié)都有詳細的數(shù)學理論作支撐,具備很強的可解釋性,但是需要仔細挑選參數(shù)。而用高度依賴數(shù)據(jù)的深度學習去近似VSLAM系統(tǒng),對于某些數(shù)據(jù)集可能產生不錯的效果,換個場景可能就不那么敏感了,但是如果數(shù)據(jù)集足夠大的話,神經網絡還是能夠展現(xiàn)其在數(shù)據(jù)上極強的適應性,所以數(shù)據(jù)集的體積對神經網絡的準確率是一個重要的影響因子。

傳統(tǒng)的VSLAM仍然面臨著對環(huán)境的適應性問題,深度學習有望在這方面發(fā)揮較大的作用。目前,深度學習已經在語義地圖、重定位、回環(huán)檢測、特征點提取與匹配以及端到端的視覺里程計等問題上完成了相關工作,但對于某些特殊場景的應用需求,還需要進一步的發(fā)展。

為了更詳細的表現(xiàn)深度VSLAM對數(shù)據(jù)的適應性,這里我們使用KITTI數(shù)據(jù)集的單目序列對幾種現(xiàn)有計算VSLAM的VO解的結果做了簡要對比,如表2所示。

表2傳統(tǒng)VSLAM算法與基于深度學習VSLAM方法關于VO的準確度在KITTI數(shù)據(jù)集上的對比Tab. 2Comparison of accuracy of VO in KITTI dataset between traditional VSLAM algorithm and VSLAM method based on deep learning

ba5a97ac-71f5-11ed-8abf-dac502259ad0.jpg

VO作為VSLAM系統(tǒng)中必不可少的一環(huán),目的是為了獲取局部穩(wěn)定的運動軌跡,從而減輕后端優(yōu)化以及閉環(huán)檢測的壓力。我們將深度學習的方法,如DF-VO、SfM-Learner、CNN-SVO和基于幾何的方法,如ORB-SLAM2、DSO、VISO2進行對比,然而,對于深度學習方法,一個有趣的結果是,除了深度模型外,參與測試的基于幾何方法在序列01上特征點跟蹤的表現(xiàn)并不好,這表明深度模型可以作為幾何方法的補充,在未來的設計中,可以通過深度學習與幾何方法的結合來克服幾何方法的失敗情形。此外,與幾何方法相比,深度VSLAM方法具有更好的相對姿態(tài)估計。在長序列評價中,針對尺度漂移問題,ORB-SLAM2表現(xiàn)出較少的旋轉漂移,但產生較高的平移漂移,尺度漂移問題,有時這個問題可以通過閉環(huán)檢測來解決。使用尺度一致的深度預測進行尺度恢復,這在大多數(shù)單目VO/SLAM系統(tǒng)中緩解了這個問題。結果表明,該方法在長序列上具有較小的平移漂移。更重要的是,深度學習VO表現(xiàn)出更小的相對位姿誤差,這使深度VO方法成為幀到幀跟蹤的健壯模塊。

傳統(tǒng)VSLAM方法過于依賴低級別幾何特征,例如點、邊和平面,僅憑低級特征很難對環(huán)境中觀察到的標志物作語義表征。而深度學習方法的輸入可以是原始的RGB圖像,不像光流或者深度圖像這種經過預處理的數(shù)據(jù)輸入,因為網絡可以學習一種有效的特征表示方法,這種學習后的特征表示不僅將原始的高維圖像壓縮成一個緊湊的表征,還促進了后續(xù)環(huán)節(jié)的計算過程。另外,低級特征往往使閉環(huán)檢測過于依賴相機視角,這就導致在模糊或重復性較高的紋理環(huán)境中失敗率較高。基于深度學習的目標識別能夠估計出標志物的大小,生成一組便于區(qū)分的語義表征,適和與視角無關的閉環(huán)檢測。在特征地圖中識別到多個同類物體時,需要進行關鍵數(shù)據(jù)的關聯(lián)。數(shù)據(jù)關聯(lián)和識別一般采用離散方法解決離散性問題,但是傳統(tǒng)VSLAM解決的是尺度信息的連續(xù)優(yōu)化問題,相比之下,基于深度學習的VSLAM可以把傳感器數(shù)據(jù)和語義表征的位置信息融合為一個優(yōu)化問題,結合尺度信息,語義信息和數(shù)據(jù)關聯(lián)。隨后再把它拆分成兩個相互關聯(lián)的問題:首先是離散數(shù)據(jù)的關聯(lián)和語義表征的種類估計,另外是尺度信息的連續(xù)優(yōu)化問題。推測出的語義表征和傳感器姿態(tài)影響著關聯(lián)數(shù)據(jù)和表征種類的分布,而這反過來又影響傳感器-標志物姿態(tài)的優(yōu)化[37],這也是結合深度學習的VSLAM較傳統(tǒng)方法的一個明顯的優(yōu)勢。

04展望

就人類的感知方式來說,在面對場景中的對象時,除了可以獲取位置信息(三維)外,還可以確定顏色數(shù)據(jù)(三維),此外,能夠獲取語義信息比如表面硬度、實例輪廓、是否可以觸摸等信息。但是,若僅憑深度VSLAM構建三維點云,還是遠遠不夠的,因此,需要在更高維度上構建內容更為豐富的高階地圖,從而滿足各種需求。定位與感知不是VSLAM的最終目標,VSLAM是以精確的定位和感知為前提,完成復雜的任務。這對深度學習和VSLAM的結合提出了更高的要求,對深度VSLAM訓練時,以任務的完成情況為標準進行訓練。

4.1分布式的VSLAM建圖

分布式的VSLAM可以在絕對定位不可用的情況下,適用于多視覺傳感器應用的強大工具。在傳感器分散情況下,它不依賴于與中央實體的通信??梢詫⒎植际缴疃葘W習SLAM集成到一個完整的VSLAM系統(tǒng)中。為了實現(xiàn)數(shù)據(jù)關聯(lián)和優(yōu)化,現(xiàn)有的分布式VSLAM系統(tǒng)在所有傳感器之間交換完整的地圖數(shù)據(jù),從而以與傳感器數(shù)量平方成正比的復雜性進行大規(guī)模數(shù)據(jù)傳輸。與之相比,文獻[45]提出的方法在兩個階段中實現(xiàn)有效的數(shù)據(jù)關聯(lián):首先,將密集的全局描述符定向地發(fā)送到一個傳感器,只有當這一階段成功后,才會把實現(xiàn)相對位姿估計需要的數(shù)據(jù)再次發(fā)送給傳感器。所以,數(shù)據(jù)關聯(lián)可以通過傳感器計數(shù)擴展,針對緊湊的場所表現(xiàn)更突出。使用分散式的位姿圖優(yōu)化方法,交換最小量的數(shù)據(jù),這些數(shù)據(jù)與軌跡重疊是線性的,最后對整個系統(tǒng)的輸出做描述,并確定每個組件中的瓶頸。但是,二維圖像、三維點云數(shù)據(jù)隨著場景規(guī)模的增大,信息規(guī)模也會越來越大,存儲大量的圖片或者點云是不可取的,因此對數(shù)據(jù)的壓縮和存儲方式的選擇是必要的,比如八叉樹的存儲方式和網格數(shù)據(jù)劃分等。人類對于場景的記憶是基于城市、街道等先驗知識的掌握,通過對關鍵信息有選擇的記憶,不是存儲見到的每一幀圖像,只用記住去過哪個地點、哪個街區(qū),當再次經過同一地點時,就能夠做到場景的對應,這也是未來分布式深度VSLAM所面臨的問題,即固定存儲空間下對非關鍵信息的剔除,對不同傳感器間的聯(lián)合節(jié)點的識別,傳感器數(shù)據(jù)的存儲,實現(xiàn)快速的匹配問題。

4.2高維多傳感器數(shù)據(jù)處理與融合

深度學習的發(fā)展為傳感器大數(shù)據(jù)的特征提取與操作提供了新方法。激光測距傳感器是傳統(tǒng)SLAM的傳感器,具有高精度,數(shù)據(jù)采集不受時間限制等優(yōu)勢。Li等[46]提出Recurrent-OctoMap,從長期的3D激光雷達數(shù)據(jù)中學習,對語義建圖實現(xiàn)3D細化,是一種融合語義特征的學習方法,不僅僅是簡單地融合分類器地預測。在他們的方法中,將創(chuàng)建的3D地圖用八叉樹[47]表示,并參與后面的計算,將每個節(jié)點建模為RNN,從而獲得Recurrent-OctoMap。在這種情形下,語義建圖過程被表達成序列到序列的編碼-解碼問題。另外,為了延長Recurrent-OctoMap觀察到的數(shù)據(jù)持續(xù)周期,他們開發(fā)了一個強大的3D定位和建圖的SLAM系統(tǒng),并實現(xiàn)對兩周以上的雷達動態(tài)數(shù)據(jù)持續(xù)建圖。通常用于3D語義地圖細化廣泛的方法是貝葉斯估計,其融合了馬爾可夫鏈之后連續(xù)預測概率,但是傳統(tǒng)的貝葉斯方法被證實不如Recurrent-OctoMap的實驗室表現(xiàn)。

機器人在環(huán)境變化比較復雜的場景中實現(xiàn)建圖時,單一傳感器實現(xiàn)的特征檢測往往不夠全面,可能會有漏檢的情況發(fā)生,并且單一類型傳感器在復雜的環(huán)境中實現(xiàn)數(shù)據(jù)關聯(lián)成本過高,準確性較低,不能滿足SLAM在部分特殊場景下的應用需求。VSLAM對數(shù)據(jù)關聯(lián)非常敏感,數(shù)據(jù)關聯(lián)可以建立多傳感器數(shù)據(jù)與其他測量數(shù)據(jù)之間的關系,以確定它們是否有一個公共源。VSLAM中數(shù)據(jù)關聯(lián)用來確定測量數(shù)據(jù)與地圖特征的關系,機器人位姿的不確定性、特征密度的變化、環(huán)境中動態(tài)特征的干擾以及觀測誤差的存在使得數(shù)據(jù)關聯(lián)的數(shù)據(jù)處理過程變得很復雜。錯誤的關聯(lián)不但會使機器人的定位產生偏差,還會影響到已創(chuàng)建的地圖,導致算法發(fā)散。Zhang和Singh[48]提出的一個利用3D激光掃描儀數(shù)據(jù)、影像數(shù)據(jù)和IMU數(shù)據(jù)進行運動估計和地圖創(chuàng)建的方法,使用一個有序多層的從粗濾配準到精確優(yōu)化的處理流程。首先使用IMU數(shù)據(jù)做運動預測,然后使用IMU和視覺結合的方法估計運動,之后再使用激光雷達進行幀與幀的匹配做更深一步的優(yōu)化和地圖創(chuàng)建,這樣,VSLAM就可以在高動態(tài)的運動環(huán)境中使用,也可以在黑暗、無紋理、無顯著結構的復雜環(huán)境里運行。多傳感器的數(shù)據(jù)融合能夠確定各傳感器測量數(shù)據(jù)和特征源的對應關系,并確保這些對應關系在復雜環(huán)境中能發(fā)揮最優(yōu)性能,而深度神經網絡在匹配多類型數(shù)據(jù),處理不同頻率的數(shù)據(jù)方面表現(xiàn)出強大的能力,多傳感器融合的VSLAM是未來的一個重要發(fā)展方向。

4.3自適應的VSLAM

隨著機器人技術的高速發(fā)展,VSLAM也具有更多的實際應用意義。VSLAM需要相機視野的三維環(huán)境信息和相應的軌跡信息,所以VSLAM對相機定位的實時以及精度的依賴性較高[49]。隨著稀疏矩陣和非線性優(yōu)化理論在VSLAM中廣泛的應用,逐漸提出了許多VSLAM實現(xiàn)方案,比如傳統(tǒng)的LSD-SLAM[50]、ORB-SLAM、RGBD-SLAM[51]等方案,基于深度學習的VSLAM如DeepVO、SFM-Net[52]等算法,然而,現(xiàn)存大部分VSLAM的實現(xiàn)方案在視覺里程計環(huán)節(jié)精度不夠,或者過于依賴硬件性能。因此,以幀到地圖的特征匹配為基礎,面對特征地圖數(shù)據(jù)體積大、計算資源消耗過多等問題,實現(xiàn)特征地圖的自適應是必要的。張峻寧等[53]提出了一種自適應特征地圖匹配的VSLAM方法,首先進行數(shù)據(jù)初始化,將當前幀轉化成對應點云,把特征地圖劃分為多個子區(qū)域作為計算單位,利用角點的響應程度提取少量顯著的特征點,然后進行各幀特征點匹配。接下來,為解決局部地圖角點匹配消失問題,提出子區(qū)域特征點補充和局部地圖擴建的方法,實現(xiàn)當前幀特征點的快速再匹配。最后,為了進一步提高VO環(huán)節(jié)相機位姿估計精度,增加了特征地圖局部優(yōu)化環(huán)節(jié),提出幀到幀、幀到特征地圖的局部地圖優(yōu)化模型,并通過加入g2o[54]算法實現(xiàn)了相機位姿和地圖特征點的同時優(yōu)化。通過子區(qū)域分塊、特征點補充與地圖擴建的方式自適應維護特征地圖規(guī)模,使得幀到特征地圖的位姿估計兼顧了實時性和精度,另一方面提出的幀到幀、幀到模型的g2o特征地圖更新方式,該方法在位姿估計的精度、累計誤差的消除等方面表現(xiàn)顯著[53]。鑒于深度學習在前端的優(yōu)異表現(xiàn),可以將深度VSLAM的結果與自適應優(yōu)化結合,可以有效的降低VO相鄰幀間的漂移誤差,在保證實時性前提下,達到較好的定位精度和建圖能力。

05結論

本文以VSLAM和深度學習的結合為線索展開論述,描述了深度學習與視覺里程計、閉環(huán)檢測和語義SLAM的結合現(xiàn)狀,敘述了算法的可行性和高效性。接下來把傳統(tǒng)VSLAM和深度VSLAM做了簡要對比,如魯棒性、訓練周期、泛化能力等方面。最后根據(jù)二者的發(fā)展現(xiàn)狀以及實際應用需求,從分布式的VLSAM建圖、多傳感器數(shù)據(jù)融合以及自適應3個方面做了展望。

自從深度學習在許多領域展現(xiàn)出強大的優(yōu)勢后,很多研究人員試圖將深度學習端到端的理念整個應用到VSLAM中。但是,截止到目前,效果不夠理想,大多深度學習的方法用來代替VSLAM部分環(huán)節(jié),傳統(tǒng)的基于幾何的方法現(xiàn)在仍是主流。但是隨著深度學習和多傳感器的發(fā)展,VSLAM會逐漸吸收深度學習帶來的優(yōu)勢,提升其準確性和泛化能力。相信在不遠的將來,VSLAM的整個系統(tǒng)都會被深度學習取代,而不僅僅作為其中某個環(huán)節(jié)的實現(xiàn)方法,實現(xiàn)精確的基于深度學習的VSLAM方法。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2542

    文章

    50241

    瀏覽量

    750074
  • SLAM
    +關注

    關注

    23

    文章

    411

    瀏覽量

    31738
  • 深度學習
    +關注

    關注

    73

    文章

    5431

    瀏覽量

    120789

原文標題:前沿丨基于深度學習的視覺SLAM綜述

文章出處:【微信號:gh_c87a2bc99401,微信公眾號:INDEMIND】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    一種適用于動態(tài)環(huán)境的實時視覺SLAM系統(tǒng)

    既能保證效率和精度,又無需GPU,行業(yè)第一個達到此目標的視覺動態(tài)SLAM系統(tǒng)。
    的頭像 發(fā)表于 09-30 14:35 ?239次閱讀
    一種適用于動態(tài)環(huán)境的實時<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>系統(tǒng)

    基于Python的深度學習人臉識別方法

    基于Python的深度學習人臉識別方法是一個涉及多個技術領域的復雜話題,包括計算機視覺深度學習、以及圖像處理等。在這里,我將概述一個基本的
    的頭像 發(fā)表于 07-14 11:52 ?1051次閱讀

    深度學習中的時間序列分類方法

    的發(fā)展,基于深度學習的TSC方法逐漸展現(xiàn)出其強大的自動特征提取和分類能力。本文將從多個角度對深度學習在時間序列分類中的應用進行綜述,探討常用
    的頭像 發(fā)表于 07-09 15:54 ?520次閱讀

    深度學習中的無監(jiān)督學習方法綜述

    應用中往往難以實現(xiàn)。因此,無監(jiān)督學習深度學習中扮演著越來越重要的角色。本文旨在綜述深度學習中的
    的頭像 發(fā)表于 07-09 10:50 ?277次閱讀

    深度學習在工業(yè)機器視覺檢測中的應用

    隨著深度學習技術的快速發(fā)展,其在工業(yè)機器視覺檢測中的應用日益廣泛,并展現(xiàn)出巨大的潛力。工業(yè)機器視覺檢測是工業(yè)自動化領域的重要組成部分,通過圖像處理和計算機
    的頭像 發(fā)表于 07-08 10:40 ?789次閱讀

    深度學習視覺檢測中的應用

    深度學習是機器學習領域中的一個重要分支,其核心在于通過構建具有多層次的神經網絡模型,使計算機能夠從大量數(shù)據(jù)中自動學習并提取特征,進而實現(xiàn)對復雜任務的處理和理解。這種
    的頭像 發(fā)表于 07-08 10:27 ?483次閱讀

    基于深度學習的小目標檢測

    在計算機視覺領域,目標檢測一直是研究的熱點和難點之一。特別是在小目標檢測方面,由于小目標在圖像中所占比例小、特征不明顯,使得檢測難度顯著增加。隨著深度學習技術的快速發(fā)展,尤其是卷積神經網絡(CNN
    的頭像 發(fā)表于 07-04 17:25 ?621次閱讀

    深度學習在計算機視覺領域的應用

    隨著人工智能技術的飛速發(fā)展,深度學習作為其中的核心技術之一,已經在計算機視覺領域取得了顯著的成果。計算機視覺,作為計算機科學的一個重要分支,旨在讓計算機能夠像人類一樣理解和解析圖像和視
    的頭像 發(fā)表于 07-01 11:38 ?529次閱讀

    深度解析深度學習下的語義SLAM

    隨著深度學習技術的興起,計算機視覺的許多傳統(tǒng)領域都取得了突破性進展,例如目標的檢測、識別和分類等領域。近年來,研究人員開始在視覺SLAM算法
    發(fā)表于 04-23 17:18 ?1151次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學習</b>下的語義<b class='flag-5'>SLAM</b>

    為什么深度學習的效果更好?

    導讀深度學習是機器學習的一個子集,已成為人工智能領域的一項變革性技術,在從計算機視覺、自然語言處理到自動駕駛汽車等廣泛的應用中取得了顯著的成功。深度
    的頭像 發(fā)表于 03-09 08:26 ?538次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的效果更好?

    基于機器視覺深度學習的焊接質量檢測系統(tǒng)

    基于機器視覺深度學習的焊接質量檢測系統(tǒng)是一種創(chuàng)新性的技術解決方案,它結合了先進的計算機視覺深度學習
    的頭像 發(fā)表于 01-18 17:50 ?687次閱讀

    基于深度學習的LiDAR SLAM框架(DeepPointMap)

    定位準確性:與六種最新的里程計和SLAM方法進行比較,包括KISS-ICP、LeGO-LOAM、SC-LeGO-LOAM、MULLS、CT-ICP和GeoTransformer。在SemanticKITTI、KITTI-360和MulRan數(shù)據(jù)集上比較了DeepPointMap與這些方法的定位準確性。
    發(fā)表于 12-29 11:48 ?969次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的LiDAR <b class='flag-5'>SLAM</b>框架(DeepPointMap)

    基于視覺SLAM的研究現(xiàn)狀

    目前視覺SLAM系統(tǒng)可以在微型個人計算機(PC)和嵌入式設備中運行,甚至可以在智能手機等移動設備中運行(Klein和Murray,2009)。與室內或室外移動機器人不同,自動駕駛車輛具有更復雜的參數(shù),尤其是當車輛在城市環(huán)境中自動駕駛時。
    發(fā)表于 12-04 09:22 ?952次閱讀
    基于<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>的研究現(xiàn)狀

    Neuro-T:零代碼自動深度學習訓練平臺

    友思特 Neuro-T為傳統(tǒng)的深度學習視覺檢測方案提供了“自動深度學習”的解決方案,結合自動標注功能,一鍵生成高性能
    的頭像 發(fā)表于 11-24 17:58 ?533次閱讀
    Neuro-T:零代碼自動<b class='flag-5'>深度</b><b class='flag-5'>學習</b>訓練平臺

    深度學習算法和傳統(tǒng)機器視覺助力工業(yè)外觀檢測

    在很多人眼里,深度學習是一個非常神奇的技術,是人工智能的未來,是機器學習的圣杯。今天深視創(chuàng)新帶您一起揭開他神秘的面紗,了解什么才是深度學習。
    的頭像 發(fā)表于 11-09 10:58 ?595次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>算法和傳統(tǒng)機器<b class='flag-5'>視覺</b>助力工業(yè)外觀檢測