0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

BEV還有什么新的玩法嗎

焉知新能源汽車 ? 來源:焉知新能源汽車 ? 2023-02-07 10:08 ? 次閱讀

特斯拉 NOA 導航輔助駕駛

大家想象中的自動駕駛,其實沒有那么多定語,應該是從任意地點到任意地點都能自動駕駛。

但是自動駕駛技術的開發(fā)難度實在太大,各種限制因素也多,所以現(xiàn)在在乘用車自動駕駛領域,業(yè)界劃分出了不同的 ODD(可運行區(qū)域),包括泊車域、行車域,行車域里面又有城市域、高速域,像蔚來還要把換電場景自動駕駛這個域加進去。

一段從車輛啟動到車輛停好的旅程,被切割成了細分的很多段,業(yè)內企業(yè)們正分段攻破。

正是因為這些域的存在,衍生出了很多的自動駕駛功能(現(xiàn)在只能稱為「輔助駕駛功能」),比如泊車域的自動泊車、遙控泊車、記憶泊車;而在行車域,又有基礎輔助駕駛功能(ACC、LCC、ALC),還有更高級一些的導航輔助駕駛,可覆蓋高速域以及城市域,再往后那就是真正的點到點自動駕駛。

不過目前由于自動駕感知技術還未達到極致成熟,從高速到城市,感知難度指數(shù)級提升,同時有其他限制因素,當下最主流的智駕功能——導航輔助駕駛系統(tǒng)開城的速度依然很慢。

01

導航輔助加速內卷

BEV感知技術成主流

從目前業(yè)內自動駕駛的產品形態(tài)看,導航輔助駕駛功能越來越火爆,這個由特斯拉帶火的層次稍高一些的輔助駕駛功能,正在被國內的新老車企爭相推動上車,國內的供應商們也都往這個方向上卷,因為這個方向既受到法規(guī)允許,也能吸引到真實消費者使用并為其買單。

未來 1-2 年,國內的導航輔助駕駛功能 NOA、NGP、NOP、NZP、ANP、NOH、NCA、NOM 等將迎來大爆發(fā)。當然,速度有快有慢,有的還在打磨高速導航輔助駕駛,有的已經把車開進了城市,開啟了更難的挑戰(zhàn)。

就在本月,此前主打 Robotaxi 開發(fā)和運營的小馬智行正式宣布開辟乘用車智能駕駛業(yè)務產品線,并已成立獨立事業(yè)部。

從其公布的智能駕駛量產方案中,要打造高速和城市導航輔助駕駛的規(guī)劃非常明確。

ab2682f0-931a-11ed-bfe3-dac502259ad0.png

小馬智行公布的量產自動駕駛方案

這也足夠說明導航輔助駕駛系統(tǒng)已經成為車企和供應商的兵家必爭之地。

在導航輔助駕駛功能火爆和上量的背后,是自動駕駛核心技術在驅動。

感知技術、決策/規(guī)劃/控制技術、高精地圖技術等等,都在深刻影響著導航輔助駕駛產品的能力和體驗。其中,感知技術以及定位技術是導航輔助駕駛功能實現(xiàn)的前提,沒有這二者,后面的規(guī)劃控制也就無從談起。

感知能幫助系統(tǒng)「看」到道路上的參與者和道路要素,定位能告訴系統(tǒng)「我在哪里」,所以你可以看到現(xiàn)在各家的導航輔助駕駛一方面要在傳感器種類和數(shù)量上卷;另一方面也很依賴于高精地圖數(shù)據。

其中的高精地圖覆蓋范圍以及新鮮度很大程度上限定了導航輔助駕駛的運行連續(xù)性以及可用范圍。

可以預見的是,無論是高速導航輔助駕駛還是城市導航輔助駕駛,未來很長一段時間還是得依賴高精地圖這一重要「傳感器」。因為單從體驗上來看,有高精地圖的功能和沒高精地圖的功能確實有著非常大的差距。

但是依賴高精地圖也不意味著行業(yè)放棄了對車端感知能力和技術的更高追求。其實是要尋找一種平衡:在有高精地圖的地方增強車輛智駕系統(tǒng)體驗;在沒有高精地圖的區(qū)域,系統(tǒng)能通過車上感知模塊來指導車輛完成自動駕駛,比如像北京五環(huán)內這樣的區(qū)域。

所以,行業(yè)也在推動自動駕駛感知技術的突破。感知技術接下來的主流會是什么?很多車企和供應商的答案是 —— BEV 感知。

02

BEV是什么?為什么被需要?

BEV 全稱是 Bird's Eye View,也就是鳥瞰圖,是一種用于描述感知到的現(xiàn)實世界的視角或坐標系(3D 空間),就像是上帝視角。另外,BEV 也是計算機視覺領域內的一種端到端的、由神經網絡將圖像信息從圖像空間轉換到 BEV 空間的技術。

大家知道在自動駕駛車上,有很多的傳感器,如攝像頭、毫米波雷達、激光雷達,自動駕駛系統(tǒng)里傳統(tǒng)的圖像空間感知方法是將汽車上的雷達、攝像頭等不同傳感器采集來的數(shù)據分別進行分析運算,然后再把各路分析結果融合到一個統(tǒng)一的空間坐標系,用于規(guī)劃車輛的行駛軌跡。

但這個過程中每個獨立傳感器收集到的數(shù)據和人眼類似,受特定視角的局限,經過各自的分析運算后,在后處理融合階段會導致誤差疊加,很難精準地拼湊出道路實際全貌,給車輛的決策規(guī)劃帶來困難。

BEV 感知就好比是一個從高處統(tǒng)觀全局的「上帝視角」,車身多個傳感器采集的數(shù)據,會輸入到一個統(tǒng)一模型進行整體推理,這樣生成的「鳥瞰圖」,有效地避免了誤差疊加;BEV 方案還支持「時序融合」,也就是不僅收集一個時刻的數(shù)據,分析一個時刻的數(shù)據,而是支持把過去一個時間片段中的數(shù)據都融合進模型做環(huán)境感知建模,這樣可以讓系統(tǒng)感知到的結果更穩(wěn)定,使得車輛對于道路情況的判斷更加準確,讓自動駕駛更安全。

BEV 感知技術其實是特斯拉帶火的,作為業(yè)內純視覺感知技術的鼻祖,很早就在這方面下功夫。

特斯拉車身上有多個攝像頭和毫米波雷達,在做感知的時候,需要把不同傳感器的感知數(shù)據收集并有效融合起來,輸出感知結果。

ab438da0-931a-11ed-bfe3-dac502259ad0.png

特斯拉車上不同位置的攝像頭的參數(shù)并不一樣(相機的內外參不同),包括焦距長度、視野寬度、深度感受野等等,這就導致同一個物體在不同的相機里是不一樣的。

特斯拉在引入 BEV 之前采用的方式是:在每個相機上單獨進行感知,然后再將不同相機感知到的結果進行融合。

但這種方式會存在幾個問題:

比如融合困難,將不同相機的感知結果進行融合需要大量的超參,寫起來非常復雜,并且由于深度估計的誤差,最終的輸出結果可能會相互沖突,導致融合結果不一致。

另外就是圖像空間的輸出對于后續(xù)任務來說很不友好,比如在一些預測任務上,如果不同相機單獨感知,則很難預測被大面積遮擋的物體;單個攝像機也無法看到大物體的全貌,會導致難以正確預測。

為了解決這些問題,特斯拉采取的方法就是用神經網絡將圖像空間映射到 BEV 空間。

其做法是把多個視角的圖像統(tǒng)一通過一個公共的特征提取器投影到一個統(tǒng)一的 BEV 空間里面。

在這個空間里面,通過深度學習去完成一個特征的融合,然后再通過一個 3D 的解碼器,直接端到端輸出最后的一個 3D 檢測和道路結構信息。下游的像規(guī)劃與控制模塊直接可以在 BEV 的空間上去進行。

特斯拉 BEV 坐標轉換

從 2D 圖像空間到 3D BEV 空間如何轉換?

這里不得不提到 Transformer。

大概從 2017 年開始,Transformer 作為一種新型的神經網絡結構開始引起研究人員的廣泛關注。

Transformer 與處理序列數(shù)據常用的循環(huán)神經網絡(RNN)不同,Transformer 中的注意力機制并不會按照順序來處理數(shù)據,也就是說,每個元素和序列中的所有元素都會產生聯(lián)系,這樣就保證了不管在時序上相距多遠,元素之間的相關性都可以被很好地保留。通俗點說就是會「聯(lián)系上下文」,而且還會抓重點。

Transformer 首先被應用在自然語言處理領域(NLP),用來處理序列文本數(shù)據。在自然語言處理領域取得廣泛應用后,Transformer 也被成功移植到了很多視覺任務上,比如「圖像分類,物體檢測」等,并同樣取得了不錯的效果。而且,Transformer 在海量數(shù)據上可以獲得更大的性能提升,這不正好就是自動駕駛領域所需要的嗎?

正是因為看到了這一點,面向量產的自動駕駛公司在擁有數(shù)據收集優(yōu)勢的情況下,自然就會傾向于選擇 Transformer 作為其感知算法的主體。

2021 年夏天,特斯拉的自動駕駛技術負責人 Andrej Karpathy 在 AI Day 上,公開了 FSD 自動駕駛系統(tǒng)中采用的算法,而 Transformer 則是其中最核心的模塊之一。

BEV 感知技術要廣泛應用,離不開 Transformer 這樣的模塊進行空間坐標系的轉換,比如將 2D 圖像轉換到 3D 空間里去。

ab7db692-931a-11ed-bfe3-dac502259ad0.png

其架構簡單說就是:先通過一個共享的主干網絡來提取每個相機的特征,然后再通過 Transformer 等將多攝像頭數(shù)據,完成從圖像空間到 BEV 空間(3D)的轉換。

在 BEV 空間內,由于坐標系相同,可以很方便地將圖像數(shù)據和激光雷達、毫米波雷達數(shù)據進行融合,還可以進行時序融合形成 4D 空間,這也是當下 BEV 技術的大趨勢。當然,特斯拉目前不需要融合激光雷達數(shù)據。

BEV 感知技術很好地解決了傳感器融合的很多阻礙性難題,而且也給了后續(xù)異構傳感器大量上車之后的融合提供了借鑒。

國內的自動駕駛團隊百度 Apollo 也經歷了這個過程,他們在 2019 年推出了 Apollo Lite 方案,其實也是一個多攝像頭融合的方案,包括單目前視+多個環(huán)視。

他們當時也是采用后融合方式來做。

在這個感知方案的整體框架方面,每一個不同朝向的相機,會先經過一個神經網絡去推理出相機下面的障礙物位置、大小、朝向等信息;單相機里面的目標跟蹤,以及多相機融合等都是一些基于規(guī)則的方案去做的。

百度團隊在單相機里面把深度學習做到一個比較高的程度了,整個單相機里面的 3D 感知信息都可以通過模型來輸出,然后基于 3D 標注結果,直接端到端產出單相機的結果。

在過去的幾年里,單相機的 3D 感知能力也有一個比較大的提升,但是最后也遇到了一些瓶頸,比如有一些截斷的物體,在一個相機里面是看不全的,就沒辦法很好地去對它做感知。

另外,一些跟蹤和平滑策略在圖像視角下,和最后規(guī)劃控制模塊所要的輸出空間其實是不一致的,這樣會總體上限制自動駕駛的能力。

所以在過去一年里,百度 Apollo 的團隊也將 BEV 感知應用了進來,整體上使用一種持續(xù)并列的框架去端到端地做障礙物檢測、軌跡預測以及道路結構感知,整體上會有一個時間序列,多幅圖像輸入進來。然后通過圖像的特征提取器之后,得到圖像視角的特征,然后再通過 Transformer 把那個特征投影到一個統(tǒng)一的 BEV 空間,再經過解碼,最終得到一個端到端的一個 3D 感知效果。

特別是在道路結構這一部分,百度因為有自己的高精地圖數(shù)據,把這些數(shù)據和車輛的高精定位信息結合起來,是可以直接轉換成 BEV 道路結構的訓練數(shù)據,用于算法的訓練。

ab968ee2-931a-11ed-bfe3-dac502259ad0.png

也正是在 BEV 感知技術的加持下,百度的導航輔助駕駛 ANP 3.0 系統(tǒng)正在加速落地,這套系統(tǒng)能覆蓋高速場景、城市場景,甚至能自動通過收費站。作為已經確定應用這套能力的集度 ROBO-01 車型,最近也已經去到交通流復雜的廣州進行測試,去征服更多的感知難題。

除了像特斯拉和 Apollo Lite 這種純視覺自動駕駛方案,國內現(xiàn)在掀起的是多傳感器融合方案,激光雷達(單顆或多顆)、攝像頭(像素越來越高)、毫米波雷達、超聲波傳感器等等。

這么多的異構傳感器放在一起,感知數(shù)據如何融合?視覺數(shù)據和激光雷達點云數(shù)據如何融合?它們一個是 2D 圖像空間,一個是 3D 空間,如何比較穩(wěn)定的融合,而且效果還要好?

答案依然是 BEV 感知。

如前文所述,可以先通過 Transformer 把視覺的 2D 圖像轉換到 3D 坐標下,和其他的傳感器數(shù)據如激光雷達點云在空間坐標上保持一致,在相同坐標下融合起來就更加游刃有余。

如果從國內的這些車企和供應商的選擇來看,BEV 感知已經是主流了。

而 BEV 感知技術成為應用主流,也意味著其將推動導航輔助駕駛這類功能更快量產、更好地落地。

一方面,那些應用 BEV 感知技術的造車新勢力們,能更加好的提升系統(tǒng)的感知能力,讓功能的體驗更好。

另一方面,那些應用 BEV 感知技術的智駕供應商,能夠更快去適配不同車企、不同車型的五花八門的需求,比如他們對車上智駕傳感器的不同配置的需求,可以靈活應變,在感知效果上也不會因為傳感器配置變化而變得不穩(wěn)定、不可控。

03

哪些公司在用BEV?

雖然 BEV 感知技術不能解決自動駕駛感知領域的一切疑難雜癥,但它提供了一個相比圖像更加貼近物理世界的空間,可以給后續(xù)的融合、規(guī)劃提供更多的可能性。

現(xiàn)在很多自研智駕系統(tǒng)的車企以及智駕供應商都在使用 BEV 技術。

比如車企里面的蔚來、理想、小鵬;供應商里面的百度 Apollo、毫末智行、紐勱科技、地平線;Robotaxi 公司轉型做智駕系統(tǒng)供應商的輕舟智航、小馬智行等等。

每一家在具體使用這項技術的時候肯定會有不同,但是大致的技術框架應該如下:

先將攝像頭數(shù)據輸入到共享的骨干網絡(Backbone),提取每個攝像頭的數(shù)據特征(Feature);

把所有的攝像頭數(shù)據進行融合,并轉換到 BEV 空間;

在 BEV 空間內,進行異構傳感器數(shù)據融合,將視覺數(shù)據和激光雷達點云進行融合;

進行時序融合,形成 4D 時空維度的感知信息(3D+速度);

進行多任務輸出,可以是靜態(tài)語義地圖、動態(tài)檢測和運動預測等,給到下游規(guī)控模塊使用。

就拿剛剛公布要進行智駕系統(tǒng)量產上車的小馬智行來講,其已明確自研了 BEV 感知算法。

可通過大模型識別各類型障礙物、車道線及可通行區(qū)域等信息,最大限度降低算力需求,同時在無高精地圖的情況下,僅用導航地圖也可實現(xiàn)高速與城市導航輔助駕駛功能。

特別是在高速場景中,小馬智行壓榨傳感器的性能,用魚眼相機參與行車 BEV 感知模型,減少對傳感器數(shù)量的依賴—— 使用 6 個攝像頭(4 個魚眼相機及前后向各 1 個長距相機)與 1 個前向毫米波雷達就可以實現(xiàn)高速導航輔助駕駛這樣的功能。

成功推出高速及城市 NOH 系統(tǒng)的毫末智行在感知領域同樣采用了 BEV 融合感知技術,毫末的融合感知其實包含三個不同的維度:空間、時間和傳感器。

空間融合主要是將來自多個相機的圖像轉換到統(tǒng)一的 BEV 坐標,再進行特征層融合;另外,單幀的信息會有很大的隨機性,因此,時序信息對于自動駕駛環(huán)境感知來說是非常重要的,毫末的時序融合也是采用了車輛自身的運動信息來統(tǒng)一多幀數(shù)據的空間坐標系,從而在一個統(tǒng)一的空間坐標系下融合來自不同時間的數(shù)據。

輕舟智航去年發(fā)布的 OmniNet 感知融合大模型就是將視覺、毫米波雷達、激光雷達等數(shù)據通過前融合和 BEV 空間特征融合,讓本來獨立的各個計算任務通過共享主干網絡(Backbone)和記憶網絡(Memory Network)進行高效多任務統(tǒng)一計算,最終同時在圖像空間和 BEV 空間中輸出不同感知任務的結果,為下游的預測和規(guī)劃控制模塊提供更豐富的輸出。

ac13d8de-931a-11ed-bfe3-dac502259ad0.jpg

雖然地平線是一家芯片企業(yè),但是其打造的 SuperDrive 全場景智能駕駛方案里,其實也應用了感知融合 BEV 技術,這套方案可支持高速、城區(qū)、泊車場景自動駕駛,目前正給吉利方面供貨。

智駕供應商紐勱科技的感知團隊也基于 BEV 提出了 BEVSegFormer,一種基于 Transformer 的 BEV 語義分割方法,可面向任意配置的相機進行 BEV 語義分割。

具體來說,BEVSegFormer 首先使用了共享的主干網絡,對來自任意相機的圖像特征進行編碼,然后通過基于可變形 Transformer 的編碼器對這些特征進行增強。BEVSegFormer 還引入了一個 BEV Transformer 解碼器模塊,對 BEV 語義分割的結果進行解析,以及一種高效的多相機可變形注意單元,完成 BEV 到圖像的視圖變換。最后,根據 BEV 中的網格布局對查詢進行重塑,并進行上采樣,以有監(jiān)督的方式生成語義分割結果。

ac20918c-931a-11ed-bfe3-dac502259ad0.png

在車企方面,理想汽車的 L9 車型所搭載的 AD Max 系統(tǒng)也應用了融合感知 BEV 技術,它利用所謂「純視覺」進行運動感知預測,同時多傳感融合和高精地圖的信息輸入作為輔助。

另外,蔚來自動駕駛 NAD 系統(tǒng),在 2023 年的上半年,也會進行底層感知架構的切換,轉向 BEV 模型,向特斯拉看齊。

當然,以上并未完全列出所有采用 BEV 技術的行業(yè)玩家。

BEV 技術成為了廠商們選擇的主流感知融合技術,該如何去定位這一技術?MAXIEYE CEO 周圣硯是這么看的:BEV 是深度學習之后的又一個新臺階,解決了過去多傳感器的變化和異構帶來的各種各樣的融合感知算法的開發(fā)問題。

04

BEV還有什么新的玩法嗎?

當 BEV 感知技術成為主流,而且被多數(shù)廠商采用的時候,有些企業(yè)就開始對其進行改造了。

在今年 Create AI 開發(fā)者大會上,百度就在 BEV 感知基礎上,提出了一個叫做「車路一體 BEV」的感知方案,取名叫 UniBEV,有點像「聯(lián)合 BEV」。

簡單點理解就是,UniBEV 不但會將車端的感知數(shù)據拿過來做融合,也會將路端的感知數(shù)據也放進來,放到同一個坐標系下。BEV 本來就是個上帝視角了,這里再加上路端的超視距感知數(shù)據,那簡直是開掛一般的存在。但什么時候能在車端量產應用現(xiàn)在還不太清楚。

具體來看看 UniBEV 的框架。

ac4b2ee2-931a-11ed-bfe3-dac502259ad0.png

框架中的虛線框里有一個自研的內外參解耦算法,這里的內外參指的是傳感器的內外參數(shù),比如相機內參數(shù),指的是與相機自身特性相關的參數(shù),比如焦距、像素大小等;而相機外參數(shù)則是相機在真實世界坐標系中的參數(shù),比如相機的安裝位置、旋轉方向等。

那為何要把內外參解耦呢?百度說他們作為智駕方案商,需要把方案供應給不同的車廠,不同車廠車型會有不一樣的傳感器配置,比如供給集度的和供給比亞迪的傳感器方案就會不一樣。

有了這個解耦算法,可以把不同相機解耦開,讓每個相機獨立,這樣不管傳感器的相對位置如何變,研發(fā)團隊都可以將其投影到一個統(tǒng)一的 BEV 空間下。

框架中另一部分是車端和路側的點云,而且路側也會裝一些攝像頭,這些數(shù)據的特征到最后都會投影到一個統(tǒng)一的 BEV 空間下,便能把可能的信息都融合起來。

最終,在 UniBEV 加持下,百度的智駕系統(tǒng)在車端、路側的動靜態(tài)感知任務上都有不錯的表現(xiàn)。

當然,也不是誰家都能搞這樣的車路一體 BEV 感知的,因為這也需要有大量的路段感知設備傳回的數(shù)據,這是需要路側基建的。目前國內,百度是為數(shù)不多有車路協(xié)同路端基建業(yè)務的智駕供應商,這一點也強化了 UniBEV 的獨特性。

當然,我們也期待其他廠商,基于 BEV 感知技術再研究出更加突破性的技術,助力自動駕駛技術在感知領域的大躍進。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2542

    文章

    50317

    瀏覽量

    750379
  • 特斯拉
    +關注

    關注

    66

    文章

    6265

    瀏覽量

    126372
  • 輔助駕駛系統(tǒng)

    關注

    5

    文章

    84

    瀏覽量

    16939

原文標題:BEV還有什么新的玩法嗎?

文章出處:【微信號:nev360,微信公眾號:焉知新能源汽車】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    解鎖新玩法 | 迅為龍芯3A5000升級UEFI,全面支持銀河麒麟系統(tǒng)

    解鎖新玩法 | 迅為龍芯3A5000升級UEFI,全面支持銀河麒麟系統(tǒng)
    的頭像 發(fā)表于 10-21 11:23 ?217次閱讀
    解鎖新<b class='flag-5'>玩法</b> | 迅為龍芯3A5000升級UEFI,全面支持銀河麒麟系統(tǒng)

    正力新能為零跑T03歐盟版供應BEV標準化電芯產品

    近日,Stellantis集團發(fā)布消息,零跑國際首批零跑 C10、T03 車型已經從中國上海港啟航發(fā)往歐洲,隨后數(shù)月內將有更多電動汽車運往歐洲。作為零跑汽車在動力電池領域的戰(zhàn)略合作伙伴,正力新能為本次出海T03歐盟版車型供應BEV標準化電芯產品。
    的頭像 發(fā)表于 08-02 09:38 ?433次閱讀

    電裝總部啟動基于BEV的能源管理系統(tǒng)實證實驗

    ? 2024年,株式會社電裝(以下簡稱“電裝”)在公司總部啟動了基于純電動汽車(BEV)的能源管理系統(tǒng)的實證實驗,旨在實現(xiàn)汽車移動和辦公環(huán)境的碳中和目標。 /?2035年實現(xiàn)碳中和??/ 電裝以
    的頭像 發(fā)表于 07-15 17:25 ?551次閱讀

    豐田與比亞迪合作僅限BEV領域,廣汽豐田無DMI插混項目?

    5月11日,針對關于豐田在華合資企業(yè)可能采用比亞迪DM-i超級混動技術生產新車的傳聞,豐田中國正式聲明,雙方僅限于BEV領域的合作,未涉足其他領域。
    的頭像 發(fā)表于 05-11 16:54 ?868次閱讀

    黑芝麻智能開發(fā)多重亮點的BEV算法技術 助力車企高階自動駕駛落地

    隨著視覺算法的演進,BEV(Bird's-Eye-View Perception)感知算法成為主機廠和自動駕駛公司發(fā)力城市場景的核心技術之一,BEV 感知通過從高處統(tǒng)觀全局的“上帝視角”,融合車載多視角攝像頭的輸入,然后變成鳥瞰圖的檢測輸出,有效地避免了誤差疊加
    的頭像 發(fā)表于 03-29 18:18 ?1825次閱讀
    黑芝麻智能開發(fā)多重亮點的<b class='flag-5'>BEV</b>算法技術 助力車企高階自動駕駛落地

    BEV感知算法:下一代自動駕駛的核心技術

    首先,BEV視圖存在遮擋小的優(yōu)點,由于視覺的透視效應,現(xiàn)實世界的物體在2D圖像中很容易受到其他物體的遮擋,因此,傳統(tǒng)的基于2D的感知方式只能感知可見的目標,對于被遮擋的部分算法將無能為力。
    發(fā)表于 01-25 15:38 ?3871次閱讀
    <b class='flag-5'>BEV</b>感知算法:下一代自動駕駛的核心技術

    一種基于PV變換和CNN模型生成BEV數(shù)據的方法

    自上而下的表示形式,也就是我們常說的BEV鳥瞰圖,這樣可以很好的為自動駕駛車輛導航提供除高精地圖外的其他圖層信息。
    的頭像 發(fā)表于 01-23 09:19 ?420次閱讀
    一種基于PV變換和CNN模型生成<b class='flag-5'>BEV</b>數(shù)據的方法

    BEV和Occupancy自動駕駛的作用

    BEV是Bird's Eye View 的縮寫,意為鳥瞰視圖。在自動駕駛領域,BEV 是指從車輛上方俯瞰的場景視圖。BEV 圖像可以提供車輛周圍環(huán)境的完整視圖,包括車輛前方、后方、兩側和頂部。
    發(fā)表于 01-17 12:33 ?663次閱讀
    <b class='flag-5'>BEV</b>和Occupancy自動駕駛的作用

    輕量級占用網絡FlashOcc:主打實時性,高精度高效內存

    自特斯拉在2021 AI Day上提出BEV障礙物感知的思路后,BEV逐漸成為業(yè)界爭相落地的熱點。
    的頭像 發(fā)表于 01-16 11:37 ?1354次閱讀
    輕量級占用網絡FlashOcc:主打實時性,高精度高效內存

    頂刊TPAMI最全綜述!深入自動駕駛BEV感知的魔力!

    BEV感知的主要工作。在輸入模態(tài)下," L "為LiDAR," SC "為單相機," MC "為多相機," T "為時
    的頭像 發(fā)表于 01-14 09:53 ?1245次閱讀
    頂刊TPAMI最全綜述!深入自動駕駛<b class='flag-5'>BEV</b>感知的魔力!

    自動駕駛領域中,什么是BEV?什么是Occupancy?

    BEV是Bird's Eye View 的縮寫,意為鳥瞰視圖。在自動駕駛領域,BEV 是指從車輛上方俯瞰的場景視圖。
    的頭像 發(fā)表于 01-13 09:41 ?3198次閱讀
    自動駕駛領域中,什么是<b class='flag-5'>BEV</b>?什么是Occupancy?

    基于LSS范式的BEV感知算法優(yōu)化部署詳解

    BEV即Bird's Eye View(鳥瞰視圖)是一種從空中俯視場景的視角。由多張不同視角采集的圖像通過不同的空間轉換方式形成,如下圖所示,左側為6張不同位置的相機采集的圖像,右側為轉換的BEV圖像。
    的頭像 發(fā)表于 01-02 14:13 ?3634次閱讀
    基于LSS范式的<b class='flag-5'>BEV</b>感知算法優(yōu)化部署詳解

    Nullmax揭秘BEV-AI技術架構加速量產方案演進

    12月19日,Nullmax首席科學家成二康博士應邀出席2023全球自動駕駛峰會(GADS 2023),在自動駕駛BEV感知技術論壇上發(fā)表《BEV-AI技術架構 – 量產方案演進》主題報告,透過Nullmax量產方案演進路線圖,深度剖析
    的頭像 發(fā)表于 12-22 14:46 ?1067次閱讀

    BEV感知的二維特征點

    BEV感知的二維特征點 首先來簡單介紹一下什么是BEV感知。 BEV感知(Bird’s Eye View Perception)是一種用于自動駕駛汽車的感知系統(tǒng),用于提供車輛周圍自上而下的視圖。該系
    的頭像 發(fā)表于 11-14 11:37 ?596次閱讀

    手機拍照離光學變焦還有多遠

    電子發(fā)燒友網站提供《手機拍照離光學變焦還有多遠.doc》資料免費下載
    發(fā)表于 11-02 11:28 ?0次下載
    手機拍照離光學變焦<b class='flag-5'>還有</b>多遠