0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種動(dòng)態(tài)環(huán)境下的直接視覺(jué)里程計(jì)

jf_pmFSk4VX ? 來(lái)源:GiantPandaCV ? 作者:泡椒味的口香糖 ? 2022-10-12 09:22 ? 次閱讀

引言

大部分SLAM系統(tǒng)都應(yīng)用了靜態(tài)環(huán)境假設(shè),這使得它們難以在復(fù)雜動(dòng)態(tài)環(huán)境中部署。此外,傳統(tǒng)的基于學(xué)習(xí)的SLAM方法往往都是利用目標(biāo)檢測(cè)或語(yǔ)義分割剔除動(dòng)態(tài)物體上的特征,但這樣有兩個(gè)弊端:其一是實(shí)際環(huán)境中的動(dòng)態(tài)物體不一定被預(yù)訓(xùn)練,另一是算法無(wú)法區(qū)分"動(dòng)態(tài)物體"和"靜止但可能移動(dòng)的物體"。

2. 摘要

基于學(xué)習(xí)的視覺(jué)里程計(jì)(VO)算法在常見(jiàn)的靜態(tài)場(chǎng)景中取得了顯著的性能,受益于高容量模型和大規(guī)模注釋數(shù)據(jù),但在動(dòng)態(tài)、人口稠密的環(huán)境中往往會(huì)失敗。語(yǔ)義分割主要用于在估計(jì)相機(jī)運(yùn)動(dòng)之前丟棄動(dòng)態(tài)關(guān)聯(lián),但是以丟棄靜態(tài)特征為代價(jià),并且難以擴(kuò)展到看不見(jiàn)的類別。

在本文中,我們利用相機(jī)自我運(yùn)動(dòng)和運(yùn)動(dòng)分割之間的相互依賴性,并表明這兩者可以在一個(gè)單一的基于學(xué)習(xí)的框架中共同優(yōu)化。特別地,我們提出了DytanVO,第一個(gè)基于監(jiān)督學(xué)習(xí)的VO方法來(lái)處理動(dòng)態(tài)環(huán)境。它實(shí)時(shí)拍攝兩個(gè)連續(xù)的單目幀,并以迭代的方式預(yù)測(cè)相機(jī)的自我運(yùn)動(dòng)。

在真實(shí)動(dòng)態(tài)環(huán)境中,我們的方法在ATE方面比最先進(jìn)的VO解決方案平均提高了27.7%,甚至在優(yōu)化后端軌跡的動(dòng)態(tài)視覺(jué)SLAM系統(tǒng)中也具有競(jìng)爭(zhēng)力。大量未知環(huán)境上的實(shí)驗(yàn)也證明了該方法的普適性。

3. 算法分析

如圖1所示是作者提出的DytanVO的整體架構(gòu),整個(gè)網(wǎng)絡(luò)是基于TartanVO開發(fā)的。DytanVO由從兩幅連續(xù)圖像中估計(jì)光流的匹配網(wǎng)絡(luò)、基于無(wú)動(dòng)態(tài)運(yùn)動(dòng)的光流估計(jì)位姿的位姿網(wǎng)絡(luò)和輸出動(dòng)態(tài)概率掩碼的運(yùn)動(dòng)分割網(wǎng)絡(luò)組成。

匹配網(wǎng)絡(luò)僅向前傳播一次,而位姿網(wǎng)絡(luò)和分割網(wǎng)絡(luò)被迭代以聯(lián)合優(yōu)化位姿估計(jì)和運(yùn)動(dòng)分割。停止迭代的標(biāo)準(zhǔn)很簡(jiǎn)單,即兩個(gè)迭代之間旋轉(zhuǎn)和平移差異小于閾值,并且閾值不固定,而是預(yù)先確定一個(gè)衰減參數(shù),隨著時(shí)間的推移,經(jīng)驗(yàn)地降低輸入閾值,以防止在早期迭代中出現(xiàn)不準(zhǔn)確的掩碼,而在后期迭代中使用改進(jìn)的掩碼。

00b35bd8-49c1-11ed-a3b6-dac502259ad0.png

圖1 DytanVO架構(gòu)總覽

如圖2所示是DytanVO是運(yùn)行示例,包含兩個(gè)輸入的圖像幀、估計(jì)的光流、運(yùn)動(dòng)分割以及在高動(dòng)態(tài)AirDOS-Shibuya數(shù)據(jù)集上的軌跡評(píng)估結(jié)果。結(jié)果顯示DytanVO精度超越TartanVO達(dá)到了最高,并且漂移量很小。

00c31ef6-49c1-11ed-a3b6-dac502259ad0.png

圖2 DytanVO運(yùn)行示例

綜上所述,作者提出了第一個(gè)基于監(jiān)督學(xué)習(xí)的動(dòng)態(tài)環(huán)境的VO,主要貢獻(xiàn)如下:

(1) 引入了一種新的基于學(xué)習(xí)的VO來(lái)平衡相機(jī)自身運(yùn)動(dòng)、光流和運(yùn)動(dòng)分割之間的相互依賴關(guān)系。

(2) 引入了一個(gè)迭代框架,其中自我運(yùn)動(dòng)估計(jì)和運(yùn)動(dòng)分割可以在實(shí)時(shí)應(yīng)用的時(shí)間限制內(nèi)快速收斂。

(3) 在基于學(xué)習(xí)的VO解決方案中,DytanVO在真實(shí)世界動(dòng)態(tài)場(chǎng)景中實(shí)現(xiàn)了最先進(jìn)的性能,而無(wú)需微調(diào)。此外,DytanVO甚至可以與優(yōu)化后端軌跡的視覺(jué)SLAM解決方案相媲美。

3.1 運(yùn)動(dòng)分割

早期使用運(yùn)動(dòng)分割的動(dòng)態(tài)VO方法依賴于由對(duì)極幾何和剛性變換產(chǎn)生的純幾何約束,因此它們可以閾值化用于考慮運(yùn)動(dòng)區(qū)域的殘差光流。

然而,在兩種情況下,它們?nèi)菀装l(fā)生嚴(yán)重退化:

(1) 在3D移動(dòng)中,沿著極線移動(dòng)的點(diǎn)無(wú)法從單目圖像中識(shí)別出來(lái);

(2) 純幾何學(xué)方法對(duì)噪聲光流和較不準(zhǔn)確的相機(jī)運(yùn)動(dòng)估計(jì)沒(méi)有魯棒性。

因此,DytanVO通過(guò)光學(xué)擴(kuò)展將2D光流升級(jí)到3D后,顯式地將代價(jià)地圖建模為分割網(wǎng)絡(luò)的輸入,該網(wǎng)絡(luò)根據(jù)重疊圖像塊的尺度變化估計(jì)相對(duì)深度。

3.2 相機(jī)運(yùn)動(dòng)迭代優(yōu)化

在推理過(guò)程中,匹配網(wǎng)絡(luò)只前向傳播一次,而姿態(tài)網(wǎng)絡(luò)和分割網(wǎng)絡(luò)進(jìn)行迭代,共同優(yōu)化自運(yùn)動(dòng)估計(jì)和運(yùn)動(dòng)分割。在第一次迭代中,使用隨機(jī)初始化分割掩膜。直覺(jué)上會(huì)認(rèn)為,在早期迭代過(guò)程中估計(jì)的運(yùn)動(dòng)不太準(zhǔn)確,并導(dǎo)致分割輸出(對(duì)靜態(tài)區(qū)域賦予高概率)中的誤報(bào)。然而,由于光流圖仍然提供了足夠的對(duì)應(yīng)關(guān)系,因此相機(jī)運(yùn)動(dòng)實(shí)際上較為合理。在以后的迭代中,估計(jì)越來(lái)越準(zhǔn)確。

在實(shí)際應(yīng)用中,3次迭代足以使相機(jī)運(yùn)動(dòng)和分割都得到細(xì)化。圖3所示是迭代過(guò)程中的可視化結(jié)果,第一次迭代時(shí)的掩碼包含了大量的假陽(yáng)性,但在第二次迭代后迅速收斂。這也說(shuō)明姿態(tài)網(wǎng)絡(luò)對(duì)分割結(jié)果中的假陽(yáng)性具有魯棒性。

01201e94-49c1-11ed-a3b6-dac502259ad0.png

圖3 當(dāng)未見(jiàn)數(shù)據(jù)上測(cè)試時(shí)每次迭代的運(yùn)動(dòng)分割輸出。(a) 使用DytanVO在多人向不同方向移動(dòng)的情況下,對(duì)AirDOS-Shibuya中最難的序列進(jìn)行推斷;(b) 從動(dòng)態(tài)物體占據(jù)超過(guò)60%面積的FlyingThings3D推斷序列。

3.3 損失函數(shù)

DytanVO可以以端到端的方式進(jìn)行訓(xùn)練,損失函數(shù)包括光流損失LM,相機(jī)運(yùn)動(dòng)損失LP和運(yùn)動(dòng)分割損失LU。其中LM為預(yù)測(cè)流和真實(shí)流之間的L1范數(shù),而LU是預(yù)測(cè)概率和分割標(biāo)簽之間的二元交叉熵?fù)p失。具體表達(dá)形式為:

01300854-49c1-11ed-a3b6-dac502259ad0.png

4. 實(shí)驗(yàn)

4.1 數(shù)據(jù)集

DytanVO在TartanAir和SceneFlow上訓(xùn)練,其中前者包含超過(guò)40萬(wàn)個(gè)數(shù)據(jù)幀,具有僅在靜態(tài)環(huán)境中的光流和相機(jī)姿態(tài)真值。后者在高度動(dòng)態(tài)的環(huán)境中提供了3.9萬(wàn)幀,每個(gè)軌跡具有向后/向前通過(guò)、不同的對(duì)象和運(yùn)動(dòng)特征。雖然場(chǎng)景流不提供運(yùn)動(dòng)分割的真值,但可以通過(guò)利用其視差、光流和視差變化圖來(lái)恢復(fù)真值。而在評(píng)估方面,作者使用AirDOS-Shibuya和KITTI進(jìn)行測(cè)試。

4.2 實(shí)施細(xì)節(jié)

DytanVO使用TartanVO的預(yù)訓(xùn)練模型初始化匹配網(wǎng)絡(luò),使用來(lái)自CVPR論文"Learning to segment rigid motions from two frames"的預(yù)訓(xùn)練權(quán)重來(lái)固定運(yùn)動(dòng)分割網(wǎng)絡(luò),使用ResNet50作為姿態(tài)網(wǎng)絡(luò)的backbone,并刪除了BN層,同時(shí)為旋轉(zhuǎn)和平移添加了兩個(gè)輸出頭。

DytanVO使用的深度學(xué)習(xí)框架為PyTorch,并在2臺(tái)NVIDIA A100上訓(xùn)練。在推理時(shí)間方面作者在RTX 2080進(jìn)行測(cè)試,不進(jìn)行迭代的話推理時(shí)間為40ms,進(jìn)行一次迭代推理時(shí)間為100ms,進(jìn)行兩次迭代推理時(shí)間為160ms。

4.3 AirDOS-Shibuya數(shù)據(jù)集測(cè)試

如表1所示是關(guān)于迭代次數(shù)(iter)的消融實(shí)驗(yàn),數(shù)據(jù)使用來(lái)自AirDOS-Shibuya的三個(gè)序列。其中姿態(tài)網(wǎng)絡(luò)在第一次迭代后快速收斂,后續(xù)迭代顯示出較少的改進(jìn),這是因?yàn)锳irDOS-Shibuya上的光流估計(jì)已經(jīng)具有高質(zhì)量。

表1 關(guān)于迭代次數(shù)的ATE消融實(shí)驗(yàn)

013c873c-49c1-11ed-a3b6-dac502259ad0.png

表2所示是在AirDOS-Shibuya的七個(gè)序列上,與現(xiàn)有的最先進(jìn)的VO算法進(jìn)行的定量對(duì)比結(jié)果。該基準(zhǔn)涵蓋了更具挑戰(zhàn)性的多種運(yùn)動(dòng)模式。這七個(gè)序列分為三個(gè)難度等級(jí):大多數(shù)人站著不動(dòng),很少人在路上走來(lái)走去,穿越(容易)包含多個(gè)人類進(jìn)出相機(jī)的視野,而在穿越道路(困難)中,人類突然進(jìn)入相機(jī)的視野。

除了VO方法之外,作者還將DytanVO與能夠處理動(dòng)態(tài)場(chǎng)景的SLAM方法進(jìn)行了比較。包括DROID-SLAM、AirDOS、VDO-SLAM以及DynaSLAM。

表2 來(lái)自AirDOS-Shibuya的動(dòng)態(tài)序列的ATE (m)結(jié)果。最佳和次佳VO性能以粗體和下劃線顯示,"-"來(lái)表示初始化失敗

01565b9e-49c1-11ed-a3b6-dac502259ad0.png

結(jié)果顯示,DytanVO在VO基線的所有序列中實(shí)現(xiàn)了最好的性能,甚至在SLAM方法中也是有競(jìng)爭(zhēng)力的。DeepVO,TrianFlow和CC在AirDOS-Shibuya數(shù)據(jù)集上表現(xiàn)很差,因?yàn)樗鼈冎辉贙ITTI上訓(xùn)練,不能泛化。TartanVO表現(xiàn)更好,但它仍然容易受到動(dòng)態(tài)對(duì)象的干擾。

DytanVO優(yōu)于動(dòng)態(tài)SLAM方法,如AirDOS,VDO-SLAM和dyna SLAM 80%以上。雖然DROID-SLAM在大部分時(shí)間都保持競(jìng)爭(zhēng)力,但一旦行人占據(jù)了圖像中的大部分區(qū)域,它就會(huì)跟蹤失敗。此外,DytanVO的2次迭代每次推理0.16秒,但DROID- SLAM需要額外的4.8秒來(lái)優(yōu)化軌跡。

4.4 KITTI數(shù)據(jù)集測(cè)試

表3所示是DytanVO和其他VO方法在KITTI數(shù)據(jù)集上的定量對(duì)比結(jié)果,DytanVO在8個(gè)動(dòng)態(tài)序列中的6個(gè)中優(yōu)于其他VO基線,比第二個(gè)最好的方法平均提高了27.7 %。注意,DeepVO、TrianFlow和CC是在KITTI中的部分序列上訓(xùn)練的,而DytanVO沒(méi)有在KITTI上進(jìn)行微調(diào),純粹使用合成數(shù)據(jù)進(jìn)行訓(xùn)練。

此外,DytanVO在VO和SLAM中的3個(gè)序列上實(shí)現(xiàn)了最佳的ATE,無(wú)需任何優(yōu)化。圖4中提供了關(guān)于快速移動(dòng)的車輛或動(dòng)態(tài)物體在圖像中占據(jù)大片區(qū)域的四個(gè)具有挑戰(zhàn)性的序列的定性結(jié)果。注意,從經(jīng)過(guò)的高速車輛開始的序列01,ORB-SLAM和DynaSLAM都無(wú)法初始化,而DROID-SLAM從一開始就跟蹤失敗。在序列10中,當(dāng)一輛巨大的貨車占據(jù)圖像中心的顯著區(qū)域時(shí),DytanVO是唯一保持穩(wěn)健跟蹤的VO。

表3 KITTI里程計(jì)動(dòng)態(tài)序列的ATE (m)結(jié)果

0160084c-49c1-11ed-a3b6-dac502259ad0.png01aab50e-49c1-11ed-a3b6-dac502259ad0.png

圖4 KITTI里程計(jì)01、03、04和10中動(dòng)態(tài)序列的定性結(jié)果

5. 結(jié)論

作者提出了一種基于學(xué)習(xí)的動(dòng)態(tài)VO (DytanVO),它可以聯(lián)合優(yōu)化相機(jī)姿態(tài)的估計(jì)和動(dòng)態(tài)物體的分割。作者證明了自運(yùn)動(dòng)估計(jì)和運(yùn)動(dòng)分割都可以在實(shí)時(shí)應(yīng)用的時(shí)間約束內(nèi)快速收斂,并在KITTI和AirDOS-Shibuya數(shù)據(jù)集上評(píng)估了DytanVO,還展示了在動(dòng)態(tài)環(huán)境中的一流性能,無(wú)需在后端進(jìn)行微調(diào)或優(yōu)化。DytanVO為動(dòng)態(tài)視覺(jué)SLAM算法引入了新的方向。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • SLAM
    +關(guān)注

    關(guān)注

    23

    文章

    411

    瀏覽量

    31739
  • ATE
    ATE
    +關(guān)注

    關(guān)注

    5

    文章

    121

    瀏覽量

    26560

原文標(biāo)題:DytanVO:動(dòng)態(tài)環(huán)境中視覺(jué)里程計(jì)和運(yùn)動(dòng)分割的聯(lián)合優(yōu)化

文章出處:【微信號(hào):GiantPandaCV,微信公眾號(hào):GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    關(guān)于自行車速度里程計(jì)的設(shè)計(jì)?求大神指點(diǎn)?。。?/a>

    誰(shuí)能幫幫小弟我! 十分感謝! 要求:用c語(yǔ)言編寫個(gè)自行車速度計(jì)里程計(jì)! 基于芯片AT89C51,用霍爾元件測(cè)速度!用lcd1602顯示最好!不要求報(bào)警!能有個(gè)開關(guān)暫停顯示!小弟的
    發(fā)表于 04-16 20:01

    如何去提高汽車里程計(jì)電路的抗干擾能力?

    里程計(jì)工作原理是什么?汽車里程計(jì)的受擾現(xiàn)象有哪些?
    發(fā)表于 05-19 07:26

    如何理解SLAM用到的傳感器輪式里程計(jì)IMU、雷達(dá)、相機(jī)的工作原理與使用場(chǎng)景?精選資料分享

    視覺(jué)慣性里程計(jì) 綜述 VIO Visual Inertial Odometry msckf ROVIO ssf msf okvis ORB-VINS VINS-Mono gtsam目錄里程計(jì)
    發(fā)表于 07-27 07:21

    如何去實(shí)現(xiàn)一種送餐機(jī)器人產(chǎn)品設(shè)計(jì)

    、 系統(tǒng)設(shè)計(jì)關(guān)鍵部件:器件選型2 關(guān)鍵技術(shù)選型2.1 基于二維碼+輪子里程計(jì)的機(jī)器人定位方案主流方案效果循線根據(jù)電磁線行走存在路線固定的問(wèn)題純視覺(jué)室內(nèi)相似場(chǎng)景較多,存在重定位問(wèn)題純激光成本高,存在
    發(fā)表于 11-11 07:10

    基于全景視覺(jué)里程計(jì)的移動(dòng)機(jī)器人自定位方法

    通過(guò)分析全景視覺(jué)里程計(jì)傳感器的感知模型的不確定性,提出了一種基于路標(biāo)觀測(cè)的 移動(dòng)機(jī)器人 自定位算法. 該算法利用卡爾曼濾波器,融合多種傳感器在不同觀測(cè)點(diǎn)獲取的觀測(cè)數(shù)據(jù)完
    發(fā)表于 06-28 10:58 ?41次下載
    基于全景<b class='flag-5'>視覺(jué)</b>與<b class='flag-5'>里程計(jì)</b>的移動(dòng)機(jī)器人自定位方法

    視覺(jué)里程計(jì)的研究和論文資料說(shuō)明免費(fèi)下載

    使用幾何假設(shè)和測(cè)試架構(gòu)從特征軌跡產(chǎn)生相機(jī)運(yùn)動(dòng)的魯棒估計(jì)。這就產(chǎn)生了我們稱之為視覺(jué)測(cè)徑法,即僅從視覺(jué)輸入的運(yùn)動(dòng)估計(jì)。沒(méi)有事先知道的場(chǎng)景或運(yùn)動(dòng)是必要的。視覺(jué)里程計(jì)還可以結(jié)合來(lái)自其他來(lái)源的信
    發(fā)表于 12-03 08:00 ?1次下載

    視覺(jué)里程計(jì)的詳細(xì)介紹和算法過(guò)程

    在導(dǎo)航系統(tǒng)中,里程計(jì)(odometry)是一種利用致動(dòng)器的移動(dòng)數(shù)據(jù)來(lái)估算機(jī)器人位置隨時(shí)間改變量的方法。例如,測(cè)量輪子轉(zhuǎn)動(dòng)的旋轉(zhuǎn)編碼器設(shè)備。里程計(jì)總是會(huì)遇到精度問(wèn)題,例如輪子的打滑就會(huì)導(dǎo)致產(chǎn)生機(jī)器人移動(dòng)的距離與輪子的旋轉(zhuǎn)圈數(shù)不
    的頭像 發(fā)表于 08-08 14:21 ?2.7w次閱讀
    <b class='flag-5'>視覺(jué)</b><b class='flag-5'>里程計(jì)</b>的詳細(xì)介紹和算法過(guò)程

    視覺(jué)語(yǔ)義里程計(jì)的詳細(xì)資料說(shuō)明

    中,我們提出個(gè)新的視覺(jué)語(yǔ)義里程計(jì)(VSO)架構(gòu),使中期連續(xù)追蹤點(diǎn)使用語(yǔ)義。我們提出的框架可以很容易地集成到現(xiàn)有的直接和間接視覺(jué)
    發(fā)表于 10-28 08:00 ?0次下載
    <b class='flag-5'>視覺(jué)</b>語(yǔ)義<b class='flag-5'>里程計(jì)</b>的詳細(xì)資料說(shuō)明

    計(jì)算機(jī)視覺(jué)方向簡(jiǎn)介之視覺(jué)慣性里程計(jì)

    VIO-SLAM Visual-Inertial Odometry(VIO)即視覺(jué)慣性里程計(jì),有時(shí)也叫視覺(jué)慣性系統(tǒng)(VINS,visual-inertial system),是融合相機(jī)和IMU數(shù)據(jù)
    的頭像 發(fā)表于 04-07 16:57 ?2471次閱讀
    計(jì)算機(jī)<b class='flag-5'>視覺(jué)</b>方向簡(jiǎn)介之<b class='flag-5'>視覺(jué)</b>慣性<b class='flag-5'>里程計(jì)</b>

    基于單個(gè)全景相機(jī)的視覺(jué)里程計(jì)

    本文提出了一種新的直接視覺(jué)里程計(jì)算法,利用360度相機(jī)實(shí)現(xiàn)魯棒的定位和建圖。本系統(tǒng)使用球面相機(jī)模型來(lái)處理無(wú)需校正的等距柱狀圖像,擴(kuò)展稀疏直接
    的頭像 發(fā)表于 12-14 14:53 ?772次閱讀

    輪式移動(dòng)機(jī)器人里程計(jì)分析

    但凡涉及到可移動(dòng)的機(jī)器人的導(dǎo)航系統(tǒng),大概率會(huì)涉及到里程計(jì)的計(jì)算,比如輪式移動(dòng)機(jī)器人、無(wú)人機(jī)、無(wú)人艇,以及多足機(jī)器人等,而計(jì)算里程計(jì)的方案也有很多種,比如基于編碼器合成里程計(jì)的方案、基于視覺(jué)
    的頭像 發(fā)表于 04-19 10:17 ?1759次閱讀

    介紹一種基于編碼器合成里程計(jì)的方案

    摘要:本文主要分析輪式移動(dòng)機(jī)器人的通用里程計(jì)模型,并以兩輪差速驅(qū)動(dòng)機(jī)器人的里程計(jì)計(jì)算為案例,給出簡(jiǎn)化后的兩輪差速驅(qū)動(dòng)機(jī)器人里程計(jì)模型。
    的頭像 發(fā)表于 04-19 10:16 ?2045次閱讀

    介紹一種新的全景視覺(jué)里程計(jì)框架PVO

    論文提出了PVO,這是一種新的全景視覺(jué)里程計(jì)框架,用于實(shí)現(xiàn)場(chǎng)景運(yùn)動(dòng)、幾何和全景分割信息的更全面建模。
    的頭像 發(fā)表于 05-09 16:51 ?1727次閱讀
    介紹<b class='flag-5'>一種</b>新的全景<b class='flag-5'>視覺(jué)</b><b class='flag-5'>里程計(jì)</b>框架PVO

    基于相機(jī)和激光雷達(dá)的視覺(jué)里程計(jì)和建圖系統(tǒng)

    提出一種新型的視覺(jué)-LiDAR里程計(jì)和建圖系統(tǒng)SDV-LOAM,能夠綜合利用相機(jī)和激光雷達(dá)的信息,實(shí)現(xiàn)高效、高精度的姿態(tài)估計(jì)和實(shí)時(shí)建圖,且性能優(yōu)于現(xiàn)有的相機(jī)和激光雷達(dá)系統(tǒng)。
    發(fā)表于 05-15 16:17 ?653次閱讀
    基于相機(jī)和激光雷達(dá)的<b class='flag-5'>視覺(jué)</b><b class='flag-5'>里程計(jì)</b>和建圖系統(tǒng)

    在城市地區(qū)使用低等級(jí)IMU的單目視覺(jué)慣性車輪里程計(jì)

    受簡(jiǎn)化慣性傳感器系統(tǒng)(RISS)[23]的啟發(fā),我們開發(fā)了視覺(jué)慣性車輪里程計(jì)(VIWO)。具體而言,我們將MSCKF中的系統(tǒng)模型重新設(shè)計(jì)為3DRISS,而不是INS,使用里程表、3軸陀螺儀和2軸(向前和橫向)加速
    的頭像 發(fā)表于 06-06 14:30 ?1436次閱讀
    在城市地區(qū)使用低等級(jí)IMU的單目<b class='flag-5'>視覺(jué)</b>慣性車輪<b class='flag-5'>里程計(jì)</b>