0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

科學(xué)家開發(fā)可提高3D感知能力的模型,實現(xiàn)四足機器人自由行走

天津機器人 ? 來源:天津機器人 ? 2023-09-11 17:11 ? 次閱讀

借助機器人的本體感覺對足式運動進行研究已有數(shù)十年。在以往的研究手段中,研究人員往往采用基于模型的方法開發(fā)神經(jīng)網(wǎng)絡(luò)控制器。但是,這類方法無法在那些現(xiàn)實世界里沒有見過的環(huán)境中得到應(yīng)用。

近年來,為了獲得更好的泛化性和魯棒性,研究者們開始采用無模型強化學(xué)習(xí),在模擬中訓(xùn)練控制器,然后將學(xué)習(xí)到的策略直接轉(zhuǎn)移到真實的機器人上。

那么,如何在無需遙控器操控的條件下,讓四足機器人實現(xiàn)在復(fù)雜地形上自由流暢地行走呢?

近期,來自美國加州大學(xué)圣地亞哥分校和麻省理工學(xué)院的研究團隊,開發(fā)了一個可以提高機器人 3D 感知能力的模型,能夠支配四足機器人在各種困難地形場景下完成自動化行走,比如爬樓梯、踩石頭、在樹林中走路等。

視頻所示,該四足機器人的額頭上裝有前置的深度攝像頭,該攝像頭向下傾斜的角度,可以幫助該機器人前面的兩足,根據(jù)所看到的前方場景和腳下地形做出正確的行動決策。但其后面的兩足必須先記住前面看過的內(nèi)容,才能確保在經(jīng)過時踩在正確的位置上。

所以,這中間存在一個重要的問題,即需要一個短期的 3D 環(huán)境記憶體,能夠使得機器人的四足都對三維環(huán)境有良好的感知和模擬。

為此,該團隊構(gòu)建了一種神經(jīng)體積記憶(Neural Volumetric Memory,NVM)架構(gòu),可以先借助自監(jiān)督方法對視頻幀中的三維特征進行學(xué)習(xí),再用幾何變換把這些三維特征投影到同一個空間下面,最后通過模型將所有的特征信息融合在一起,讓機器人對它所處的 3D 環(huán)境建立起短期記憶。

其中,需要說明的是,將上述帶有特征的全部視覺信息綜合在一起,可以幫助四足機器人記住其看到的內(nèi)容,以及足部之前做過的動作,并利用這些記憶指導(dǎo)它下一步行動。這也表明,NVM 能為機器人執(zhí)行決策提供可靠的 3D 結(jié)構(gòu)信息,并為足式機器人利用視覺進行觀察開辟新的可能性。

2023 年 3 月,相關(guān)論文以《用于視覺運動控制的神經(jīng)體積記憶》(Neural Volumetric Memory for Visual Locomotion Control)為題發(fā)表在CVPR上,并被選為Highlight論文[1]。

d50e95f0-4fec-11ee-a25d-92fbcf53809c.jpg

圖丨相關(guān)論文(來源:arXiv)

據(jù)介紹,該研究始于 2022 年 1 月。在當時的條件下,該團隊先在模擬器環(huán)境下進行訓(xùn)練,再轉(zhuǎn)至機器人上進行部署和測試。NVM 模塊可以令四足機器人在模擬環(huán)境和真實世界中穿越復(fù)雜地形,并獲得更好的模擬-真實泛化結(jié)果。

但是,由于模擬器和機器人在物理和視覺方面都存在一些差距,因此需要克服許多有難度的工程問題。此外,從模擬器中制定任務(wù),以及做強化學(xué)習(xí)訓(xùn)練所需的代碼,也需要該團隊自行開發(fā)。

d52f9732-4fec-11ee-a25d-92fbcf53809c.jpg

圖丨實際部署(來源:arXiv)

據(jù)了解,這項成果建立在該團隊之前的一項研究上,此前,該團隊使用強化學(xué)習(xí)和基于 Transformer 的模型,將本體感受和視覺信息相結(jié)合,使得四足機器人能夠避開障礙物,在不平整的地面上行走和奔跑 [2]。

“我們目前這項研究是在不同幀上抽取三維特征,把它們放到同一個三維空間下進行合并,而之前的那項研究僅僅將不同幀直接合并起來,當做一個視頻放入卷積神經(jīng)網(wǎng)絡(luò)中,沒有做太多三維理解。”談及本項成果取得的進展,王小龍表示,“并且,之前機器人能完成的任務(wù)比較簡單,不能實現(xiàn)爬樓梯或踩木樁這種比較困難的任務(wù)。”

不過,該團隊也表示,他們目前開發(fā)的模型還存在一些局限性。首先,不能引導(dǎo)四足機器人到達指定的目的地;其次,完成部署后,機器人只能簡單地走一條直線,如果看到障礙物,會通過另一條直線避開;此外,機器人還不能精確控制其去向。

從應(yīng)用層面上看,相較于安裝輪子才能走路的機器人,四足機器人的通用性更強。比如,其可以用于應(yīng)急救援領(lǐng)域,執(zhí)行受困人員搜救、廢墟清理等任務(wù);用于下水管道探測等。

后續(xù),該團隊不僅計劃開發(fā)更多用于規(guī)劃機器人的技術(shù),還打算在四足機器人上增加機械臂,來執(zhí)行抓取、開門等任務(wù);同時,他們也想讓機器人實現(xiàn)更多創(chuàng)意性的技能,諸如跳躍、踢球等。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    210

    文章

    27990

    瀏覽量

    205547
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3059

    瀏覽量

    48575
  • 3D感知
    +關(guān)注

    關(guān)注

    0

    文章

    19

    瀏覽量

    3713

原文標題:科學(xué)家開發(fā)可提高3D感知能力的模型,實現(xiàn)四足機器人自由行走

文章出處:【微信號:tjrobot,微信公眾號:天津機器人】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    認識機器人與CW32機器人控制項目

    認識機器人與CW32機器人控制項目 一、認識機器人 機器人是一種能夠自動執(zhí)行任務(wù)的
    的頭像 發(fā)表于 09-28 15:46 ?150次閱讀

    【CW32開發(fā)】初探機器人

    本項目使用8自由度舵機控制的機器人。主要用于愛好者學(xué)習(xí)參考。實現(xiàn)基本控制姿態(tài):前進、左轉(zhuǎn)、
    的頭像 發(fā)表于 09-25 12:08 ?1418次閱讀
    【CW32<b class='flag-5'>開發(fā)</b>】初探<b class='flag-5'>四</b><b class='flag-5'>足</b><b class='flag-5'>機器人</b>

    英偉達預(yù)測機器人領(lǐng)域或迎“GPT-3時刻”

    英偉達,作為全球圖形處理器與人工智能領(lǐng)域的佼佼者,正引領(lǐng)著科技界對機器人未來的無限遐想。近日,英偉達高級科學(xué)家Jim Fan在科技媒體The Decoder的博文中,以及紅杉資本的采訪中,大膽預(yù)測
    的頭像 發(fā)表于 09-20 17:05 ?698次閱讀

    Jim Fan展望:機器人領(lǐng)域即將迎來GPT-3式突破

    英偉達科學(xué)家9月19日,科技媒體The Decoder發(fā)布了一則引人關(guān)注的報道,英偉達高級科學(xué)家Jim Fan在近期預(yù)測,機器人技術(shù)將在未來兩到三年內(nèi)迎來類似GPT-3在語言處理領(lǐng)域的
    的頭像 發(fā)表于 09-19 15:13 ?459次閱讀

    Al大模型機器人

    和迭代來不斷改進自身性能。它們可以從用戶交互中學(xué)習(xí)并根據(jù)反饋進行調(diào)整,以提高對話質(zhì)量和準確性。定制性與整合性: AI大模型機器人可以根據(jù)特定需求進行定制和整合,以滿足不同場景和應(yīng)用的
    發(fā)表于 07-05 08:52

    基于FPGA EtherCAT的六自由機器人視覺伺服控制設(shè)計

    和增強系統(tǒng)處理圖像的實時性,本文提出了一種伊瑟特的六自由機器人視覺伺服控制系統(tǒng),將攝像頭集成到基于 Zynq的伊瑟特主站上,提高了視覺伺服的實時性.經(jīng)測試,該平臺能夠?qū)σ曈X檢測目標的變化做出及時的反應(yīng)
    發(fā)表于 05-29 16:17

    銀牛微電子3D視覺感知方案賦能小米CyberDog系列仿生機器人

    2024年3月21日,合肥銀牛微電子宣布小米CyberDog系列仿生機器人的AI多模態(tài)融合感知決策系統(tǒng)正式采用銀牛的雙目立體視覺產(chǎn)品解決
    的頭像 發(fā)表于 03-21 13:55 ?703次閱讀

    技術(shù)基因+自主創(chuàng)新,光鑒科技塑造3D視覺感知新范式

    感知技術(shù)已經(jīng)滲透到智能汽車、工業(yè)機器人、服務(wù)機器人、智慧城市、新零售和智能家居等廣泛領(lǐng)域,憑借精度高、速度快、適配性強、抗干擾能力強等突出優(yōu)勢,3D
    的頭像 發(fā)表于 01-16 00:22 ?1203次閱讀
    技術(shù)基因+自主創(chuàng)新,光鑒科技塑造<b class='flag-5'>3D</b>視覺<b class='flag-5'>感知</b>新范式

    高精度彩色3D相機:開啟嶄新的彩色3D成像時代

    近年來,機器人技術(shù)的快速發(fā)展促使對3D相機技術(shù)的需求不斷增加,原因在于,相機在提高機器人的性能和實現(xiàn)多種功能方面發(fā)揮了決定性作用。
    的頭像 發(fā)表于 01-15 14:09 ?435次閱讀
    高精度彩色<b class='flag-5'>3D</b>相機:開啟嶄新的彩色<b class='flag-5'>3D</b>成像時代

    LabVIEW的六軸工業(yè)機器人運動控制系統(tǒng)

    將系統(tǒng)分為算法實現(xiàn)和仿真模塊、DSP控制模塊、及機器人驅(qū)動模塊,以驗證算法的有效性。 KUKA KRAGILUS工業(yè)機器人的實體控制測試:最終,項目工業(yè)機器人的實體控制。在LabVIE
    發(fā)表于 12-21 20:03

    人形機器人能做什么 人形機器人產(chǎn)業(yè)化面臨的挑戰(zhàn)

    人形機器人在構(gòu)型方面接近于人類的軀體,包括手臂、雙、軀干和脖子。除此之外,還要具備一些視覺類的感知能力,以及用于控制運動的算力能力。
    發(fā)表于 11-27 11:18 ?534次閱讀

    機器人步態(tài)規(guī)劃與接觸狀態(tài)

    0、步態(tài)規(guī)劃 機器人控制當中,步態(tài)是至關(guān)重要的一項。我們可以簡單理解成機器人運動過程中各
    的頭像 發(fā)表于 11-16 17:17 ?720次閱讀
    <b class='flag-5'>四</b><b class='flag-5'>足</b><b class='flag-5'>機器人</b>步態(tài)規(guī)劃與接觸狀態(tài)

    機器人DIY源代碼

    簡介:這個機器人使用的是一個開源的DIY機器人平臺——Spidey 附件包含了OpenSCAD 3d參數(shù)設(shè)計、控制固件??偟某杀敬蠹s在500美元!驚呆了
    發(fā)表于 11-09 08:31 ?0次下載
    <b class='flag-5'>四</b><b class='flag-5'>足</b><b class='flag-5'>機器人</b>DIY源代碼

    高精度3D視覺技術(shù),助力工業(yè)機器人實現(xiàn)汽車零部件高效上下料

    3D視覺引導(dǎo)工業(yè)機器人是推動汽車制造業(yè)生產(chǎn)效率和質(zhì)量提升的重要力量,通過高精度3D視覺傳感器實現(xiàn)準確的感知和識別汽車零部件的位置和形狀,
    的頭像 發(fā)表于 11-02 14:53 ?480次閱讀

    奧比中光3D相機矩陣助力更強機器人開發(fā)

    近日,奧比中光將視覺生態(tài)產(chǎn)品矩陣集成到新版本NVIDIA Isaac Sim平臺,助力全球超過百萬名機器人開發(fā)者便捷地開發(fā)、測試、仿真機器人3D
    的頭像 發(fā)表于 10-24 11:38 ?788次閱讀