0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Mobileye和特斯拉差距在哪?

佐思汽車研究 ? 來源:佐思汽車研究 ? 2023-07-12 15:33 ? 次閱讀

對比Mobileye和特斯拉,兩者做事風格截然不同。Mobileye有著十幾年的積累,可靠性經(jīng)過了市場和時間的驗證,傳統(tǒng)大廠無一例外都會選擇Mobileye,但同時意味著有資產(chǎn)包袱,不舍得放棄以前的研究成果,難接受新的研究方向與潮流變化,對學術界的東西似乎完全不在意。特斯拉則是博采各家所長,時刻關注著學術界的最新動向,發(fā)現(xiàn)有好的技術點就努力將其落地,始終走在技術最前沿。

Mobileye在L2領域占據(jù)絕對霸主地位,市場占有率超過70%,特斯拉則是智能駕駛技術的引領者。對于感知任務,核心就是建立一個3D的周邊環(huán)境模型,即3D場景重建,這也是L2與L2+系統(tǒng)的本質(zhì)區(qū)別。L2的目的是避免碰撞,遇到可能發(fā)生的碰撞就剎車或減速,而L2+系統(tǒng)是自主駕駛,遇到可能發(fā)生的碰撞時,通過對周邊3D場景重建,找到可行駛空間Freespace繞開障礙物,而不是減速或剎車。3D場景重建的最佳表征形式是BEV即鳥瞰,很多時候BEV幾乎等于3D場景重建。

3D場景重建最佳解決辦法是立體雙目,即基于Depth Map的3D重建。立體雙目可以準確測量出深度信息,但除了博世、奔馳、豐田這些大廠外,雙目的標定和立體匹配是無法跨越的難關,包括特斯拉和Mobileye。還有一個原因是新興造車在單目上累積了豐富的知識產(chǎn)權,跳到立體雙目領域意味著這些累積都作廢了,這是最核心資產(chǎn)的嚴重流失。

特斯拉和Mobileye的思路都是用單目做3D重建,常見方法有SfM和Transformer。此外3D場景重建還可以基于點云、VOXEL和MESH。

SfM(Structure From Motion)是最經(jīng)典技術路線,通過使用諸如多視圖幾何優(yōu)化之類的數(shù)學理論從2D圖像序列中確定目標的空間幾何關系,以通過相機移動恢復3D結構。SFM方便靈活,但在圖像序列采集中遇到場景和運動退化問題。根據(jù)圖像添加順序的拓撲結構,可以將其分為增量/順序SFM、全局SFM、混合SFM和分層SFM。此外,還有語義SFM和基于深度學習的SFM。步驟包括1.特征提?。⊿IFT、SURF、FAST等方法);2.配準(主流是RANSAC和它的改進版;3.全局優(yōu)化bundleadjustment用來估計相機參數(shù);4.數(shù)據(jù)融合。

6c81a5de-205f-11ee-962d-dac502259ad0.png

Mobileye的SuperVision

6c9f5278-205f-11ee-962d-dac502259ad0.png

Mobileye的multi-view stereo實際就是SFM的另一種說法,Mobileye還給它取了另一個名字Vidar或者叫偽激光雷達,這就是SuperVision的核心。

6cb3edc8-205f-11ee-962d-dac502259ad0.png

Mobileye的SuperVision,7個800萬像素攝像頭

6d044516-205f-11ee-962d-dac502259ad0.png

7個攝像頭聯(lián)合得到的3D場景重建

6d2617ae-205f-11ee-962d-dac502259ad0.png

偽激光雷達

6d5dee5e-205f-11ee-962d-dac502259ad0.png

VIDAR就是multi-view stereo

6d7dc9cc-205f-11ee-962d-dac502259ad0.png

Mobileye的SFM還混合了REM和視覺道路模型

6da5df66-205f-11ee-962d-dac502259ad0.png

SuperVision也可以得到BEV視角,不過不像特斯拉那樣高精細度,特斯拉的所謂OccupancyGrid,Mobileye也有使用。當然,大部分情況下還是非BEV視角。

SFM的優(yōu)點是設計簡單,有些類型的SFM可以用非深度學習算法,對算力需求很低,即使深度學習算法,因為還是參數(shù)量不到千萬的CNN,對算力需求還是很低。不過SFM精度不高,特別是大范圍場景或者說遠距離使用困難,因為一個大場景環(huán)境是很復雜的,如各種物體、多樣的光照、反光表面,還有不同焦距、畸變和傳感器噪聲的多樣攝像機。許多先前的方法采用多視角深度估計(MVS)來重建場景,預測每一幀圖像的稠密深度圖,這種depth-based方法可以估計準確的局部幾何形狀,但需要額外的步驟來融合這些深度圖,例如解決不同視角之間的不一致性,這相當困難。Mobileye的解決辦法是使用高像素攝像頭,7個攝像頭都是8百萬像素,像素越高,有效距離越遠。

再有就是SFM準確度有限,為了從多個輸入視圖中學習有效的3D表示,大多數(shù)基于CNN的方法遵循分而治之的設計原則,其中通常的做法是引入CNN進行特征提取和融合模塊來集成多個視圖的特征或重建得到。盡管這兩個模塊之間有很強的關聯(lián),但它們的方法設計是分開研究的。另外,在CNN特征提取階段,很少研究不同視圖中的目標關系。雖然最近的一些方法引入了遞歸神經(jīng)網(wǎng)絡(RNN)來學習不同視圖之間的目標關系,但這種設計缺乏計算效率,而且RNN模型的輸入視圖是對順序變化敏感的,難以與一組無序的輸入視圖兼容。

輪到特斯拉的BEVFormer閃亮登場了,BEV一直存在,BEV視角下的物體,不會出現(xiàn)圖像視角下的尺度(scale)和遮擋(occlusion)問題。由于視覺的透視效應,物理世界物體在2D圖像中很容易受到其他物體遮擋,2D感知只能感知可見的目標,而在BEV空間內(nèi),算法可以基于先驗知識,對被遮擋的區(qū)域進行預測。再有就是BEV視角下,感知和決策規(guī)劃有機地融為一體,依靠Freespace或者說Occupancy Grid提供直接路徑規(guī)劃,無需中間計算環(huán)節(jié),速度和準確度都大幅提升。

6dd164c4-205f-11ee-962d-dac502259ad0.png

BEV可以分為基于深度/幾何信息的和基于深度學習的兩大類。

基于深度/幾何信息的 BEV 是正向思維,采用自底向上、從2D 到3D 的方式,先在2D視角預測每個像素的深度再通過內(nèi)外參投影到 BEV空間通過多視角的融合生成BEV特征,但對深度的估計一直都是難點。不過激光雷達和雙目都可以提供準確的深度信息完全不是難點。純單目的方式典型代表就是SFM,用SFM 推測深度信息。Mobileye 可以用SFM 做出BEV,但目前來看還似乎是沒有使用,還是2D 平視。

基于深度學習的 BEV是逆向思維,采用自頂向下、從3D到2D 的方式,先在 BEV 空間初始化特征,再通過多層transformer 與每個圖像特征進行交互融合,最終再得到 BEV特征。這就是特斯拉的BEVFormer。

早期自動駕駛研究階段都是頭頂64線或128線360度Velodyne機械激光雷達,就是為了制造BEV視角,但是要到落地階段,Velodyne的64線或128線激光雷達顯然無法商業(yè)化。

6df566c6-205f-11ee-962d-dac502259ad0.png

激光雷達制造的BEV

于是才有了純攝像頭的BEV。BEV是連接時空的理想橋梁。對于人類視覺感知系統(tǒng)來說,時間信息在推斷目標的運動狀態(tài)和識別遮擋目標方面起著至關重要的作用,視覺領域的許多工作已經(jīng)證明了視頻數(shù)據(jù)的有效性。然而,現(xiàn)有最先進的多攝像頭3D檢測方法很少利用時間信息。應用Transformer(空域)結構和Temporal結構(時域)從多攝像頭輸入生成鳥瞰圖(BEV)特征。BEVFormer利用查詢查找空域和時域,并相應地聚合時-空信息,有利于實現(xiàn)感知任務的更強表征。

Transformer是一種基于注意力機制(Attention)的神經(jīng)網(wǎng)絡模型,由Google在2017年提出。與傳統(tǒng)神經(jīng)網(wǎng)絡RNN和CNN不同,Transformer不會按照串行順序來處理數(shù)據(jù),而是通過注意力機制,去挖掘序列中不同元素的聯(lián)系及相關性,這種機制背后,使得Transformer可以適應不同長度和不同結構的輸入。利用多個無序輸入之間的自注意力來探索視圖到視圖的關系。將多視圖3D重建問題重新表述為一個序列到序列的預測問題,并將特征提取和視圖融合統(tǒng)一在單個transformer網(wǎng)絡中。

另一方面,在Transformer模型中,自注意力機制在任意數(shù)量的輸入標記內(nèi)顯示出其學習復雜語義抽象的強大能力,并且自然地適合于探索3D目標不同語義部分的視圖到視圖關系。鑒于此,transformer的結構成為多視圖3D重建最吸引人的解決方案,transformer配合語義分割有更好的效果,傳統(tǒng)的CNN也有不錯的3D重建。

6e2f124a-205f-11ee-962d-dac502259ad0.png

BEVFormer整體架構

需要指出BEVFormer有兩個概念,一個是南京大學、上海AI實驗室和香港大學提出的,見論文《BEVFormer: Learning Bird’s-Eye-View Representation from Multi-CameraImages via Spatiotemporal Transformers》,另一個是人們根據(jù)特斯拉AI日中的介紹,認為特斯拉的感知結合了BEV和Transformer,因此稱其為BEVFormer。特斯拉不會公布自己的源代碼,而《BEVFormer: Learning Bird’s-Eye-ViewRepresentation from Multi-Camera Images via Spatiotemporal Transformers》內(nèi)附源代碼。

特斯拉自己對BEV + Transformer的叫法應該是Multi-CamVector Space Predictions。

6e4e29f0-205f-11ee-962d-dac502259ad0.png

其內(nèi)部構造可以參考FACEBOOK的論文《End-to-End Object Detection with Transformers》

6e6f8a28-205f-11ee-962d-dac502259ad0.png

特斯拉圖像到BEV的Transformer

6e90b374-205f-11ee-962d-dac502259ad0.png

特斯拉視覺系統(tǒng)整體架構,BEV+Transformer也就是第二層的Multi-camFusion+矢量空間。

特斯拉的第一層的BiFPN也值得一提。BiFPN當然也不是特斯拉創(chuàng)造的,它的詳細理論參見論文《EfficientDet: Scalable and Efficient Object Detection》,作者是谷歌大腦研究小組。

6ecb61d6-205f-11ee-962d-dac502259ad0.png

BiFPN準確率很高,消耗算力比傳統(tǒng)的ResNet要低很多。

Mobileye的算力不高,不是AI算力不高,CPU算力也不高,GPU幾乎為零,因此Mobileye將環(huán)境模型分成4部分,降低計算密度。

6ef2836a-205f-11ee-962d-dac502259ad0.png

針對4個子目錄有不同的處理技術

6f352e54-205f-11ee-962d-dac502259ad0.png

這其中的語義分割和特斯拉的Occupancy Grid基本一致,只是特斯拉是基于BEV視角的。

6f91617e-205f-11ee-962d-dac502259ad0.png

Mobileye的語義分割,Mobileye早在2018年就提出此項技術并于2019年商業(yè)化落地,技術實力還是很不錯的。

表面上看,特斯拉和Mobileye的SuperVision的思路一致,但Transformer的使用讓特斯拉明顯遠比Mobileye要強大,不過一代FSD或者說HW3.0能跑BEVFormer嗎?典型的NLP用Transformer參數(shù)是10億個,針對視頻的可能會有20億個,按照汽車行業(yè)慣用的INT8格式,意味著Transformer模型大小是2GB。特斯拉初代 FSD 使用的 LPDDR4,型號是MT53D512M32D2DS-046 AAT,容量為16Gb,總共 8 片,I/O 頻率 2133MHz,其帶寬為 2.133*64/8,即 17.064GB/s,由于DDR是雙通道,所以帶寬是34.12GB/s,這里非常抱歉,以前的算法有錯誤(錯誤照搬了英偉達的張量并行模式),嚴重高估了內(nèi)存帶寬。

順便指出像ChatGPT這種大模型,英偉達是采用張量并行的方式計算,因此如果是8張H100顯卡,英偉達是將權重模型一分為8,等同于內(nèi)存帶寬增加了8倍,但是張量并行是針對多張顯卡服務器設計的,對于車載領域,Transformer還未聽說用張量并行的,張量并行也是英偉達獨創(chuàng)的。內(nèi)存帶寬僅有34.12GB/s是無法流暢運行Transformer的,因為每分鐘單單讀入權重模型的次數(shù)最高也不過17次,還未包括處理數(shù)據(jù)的時間和路徑規(guī)劃所需要的時間,而智能駕駛需要幀率至少是每秒30幀,也就是每秒30次以上計算,那么內(nèi)存帶寬至少要能支持每秒60次讀入,也就是帶寬要增加3倍以上。

不僅是內(nèi)存帶寬,Transformer不僅對AI算力需求大,對CPU的標量算力需求也大,初代FSD僅有12個ARM Cortex-A72,這是不夠的。二代FSD或者說HW4.0用了昂貴的GDDR6,帶寬大幅增加,CPU核心也從12個增加到20個,勉強可以跑Transformer。不過GDDR6雖然帶寬高,但速度低,用在CPU領域并不合適。

70cdce24-205f-11ee-962d-dac502259ad0.png

服務器領域內(nèi)存是分開的,CPU用強調(diào)速度的DDR5,GPU用強調(diào)帶寬的HBM3。但汽車領域是CPU+GPU(AI),一般廠家都選擇LPDDR5(LP是低功耗的意思),照顧CPU更多,特斯拉為了強調(diào)AI算力,用了GDDR6。

初代FSD可能還上不了BEVFormer,與Mobileye的SuperVision效果相比,Mobileye的像素遠高于初代FSD,有效距離更遠,安全系數(shù)更高。但二代FSD就目前來看,是可以全面勝過SuperVision的,不過即使是美國市場,二代FSD估計也要等到2024年才會上市,中國市場估計要到2025年甚至2026年,屆時Mobileye或許也有技術升級。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 3D
    3D
    +關注

    關注

    9

    文章

    2843

    瀏覽量

    107187
  • 服務器
    +關注

    關注

    12

    文章

    8866

    瀏覽量

    84960
  • Mobileye
    +關注

    關注

    2

    文章

    127

    瀏覽量

    33745

原文標題:Mobileye和特斯拉差距在哪?

文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    采用LP875761—Q1的Mobileye EyeQ4高電源設計

    電子發(fā)燒友網(wǎng)站提供《采用LP875761—Q1的Mobileye EyeQ4高電源設計.pdf》資料免費下載
    發(fā)表于 09-18 10:42 ?0次下載
    采用LP875761—Q1的<b class='flag-5'>Mobileye</b> EyeQ4高電源設計

    Mobileye關閉激光雷達研發(fā)部門

    Mobileye Global近期宣布了一項重大戰(zhàn)略調(diào)整,決定終止其內(nèi)部對下一代調(diào)頻連續(xù)波(FMCW)激光雷達的研發(fā)項目,該項目原旨在增強自動駕駛及高度自動駕駛系統(tǒng)的性能。隨著這一決定的實施,Mobileye的激光雷達研發(fā)部門將于2024年底正式關閉,此舉預計將影響約10
    的頭像 發(fā)表于 09-10 15:56 ?261次閱讀

    極氪與Mobileye攜手加速自動駕駛技術中國本地化

    近日,新能源汽車品牌極氪汽車與以色列領先的自動駕駛技術巨頭Mobileye宣布了一項重要合作計劃,旨在加速雙方在中國市場的技術本地化進程。此次合作的核心是將Mobileye的SuperVision自動駕駛技術深度整合至極氪汽車的下一代車型中,共同推動駕駛安全與自動駕駛技術
    的頭像 發(fā)表于 08-06 10:19 ?555次閱讀

    特斯拉線圈的疑惑

    我和大家都一樣,是一位電子線圈愛好者,現(xiàn)在我的心中醫(yī)只有一個疑問,就是聽別人說特斯拉震蕩線圈可以做到把兩節(jié)電池的輸入功率提升到像空調(diào)那么大,真的可以這樣嗎?求解釋。
    發(fā)表于 07-23 08:03

    特斯拉Q1銷量下滑,比亞迪銷量持續(xù)攀升

    另一新能源龍頭企業(yè)比亞迪也交出亮眼成績單,3月份售出新能源汽車30.25萬輛,較去年同期大幅增長;今年以來累積銷售新能源汽車62.63萬輛,增速達13.44%,持續(xù)擴大與特斯拉之間的差距。
    的頭像 發(fā)表于 04-03 15:57 ?533次閱讀

    大眾汽車和Mobileye加強自動駕駛合作

    美國智能駕駛芯片巨頭Mobileye與大眾汽車集團近日宣布,在自動駕駛領域深化合作,共同推動全新自動駕駛功能在大眾旗下量產(chǎn)車型的應用。Mobileye依托其領先的Mobileye
    的頭像 發(fā)表于 03-22 11:46 ?800次閱讀

    Mobileye將為大眾旗下豪華品牌提供駕駛輔助軟件

    英特爾旗下的自動駕駛技術領軍企業(yè)Mobileye Global宣布,將攜手大眾汽車集團旗下的豪華品牌,包括奧迪、賓利、蘭博基尼和保時捷,共同推動駕駛輔助技術的發(fā)展。Mobileye將為這些品牌提供先進的駕駛輔助軟件,旨在進一步提升駕駛的安全性和便利性。
    的頭像 發(fā)表于 03-22 11:07 ?665次閱讀

    英特爾子公司Mobileye與馬興達合作打造下一代智能駕駛技術

    美國芯片巨頭英特爾的子公司Mobileye,近日宣布與印度汽車制造商馬興達拉(Mahindra & Mahindra)達成一項重要合作。根據(jù)協(xié)議,Mobileye將為馬興達拉的下一代汽車提供先進的駕駛輔助系統(tǒng)(ADAS)技術。
    的頭像 發(fā)表于 01-12 17:05 ?982次閱讀

    Mobileye和馬恒達合作開發(fā)完全自動駕駛系統(tǒng)

    在拉斯維加斯舉辦的2024年國際消費電子展(CES 2024)上,Mobileye宣布與印度汽車制造商馬恒達達成合作協(xié)議。根據(jù)協(xié)議,Mobileye將為馬恒達的下一代汽車提供高級駕駛輔助技術,助力馬恒達在印度市場取得更大的增長。
    的頭像 發(fā)表于 01-11 15:01 ?579次閱讀

    Mobileye披露與國際汽車制造商巨頭的最新合作

    Mobileye在昨日宣布,已與一家西方主要的汽車制造商達成了一項意義深遠的量產(chǎn)項目合作。這一合作不僅將影響多個國際品牌的未來,更預示著自動駕駛技術進入了一個新的歷史階段。
    的頭像 發(fā)表于 01-09 14:54 ?624次閱讀

    Mobileye披露與國際汽車制造商巨頭基于核心技術平臺的最新合作

    自2026年起,多個全球汽車品牌和17款新車型將搭載Mobileye自動駕駛技術 2024年1月 8日,美國拉斯維加斯 ——Mobileye(納斯達克股票代碼:MBLY)今日宣布,已獲得一家西方主要
    的頭像 發(fā)表于 01-09 14:40 ?536次閱讀

    Mobileye暴跌25%:客戶芯片庫存過高導致

    英特爾自動駕駛子公司Mobileye發(fā)布2023年及2024年業(yè)績展望,因客戶芯片庫存過高導致年度展望不及市場預期,股價重挫。
    的頭像 發(fā)表于 01-05 16:28 ?727次閱讀

    特斯拉超預期交付,比亞迪登頂全球銷量之冠

    特斯拉2023年全年共計交付181萬輛電動車,同比增長38%;累計生產(chǎn)185萬輛。盡管較年初設定的50%復合年增長率的目標頗有差距,但仍展示出強大的增長后勁。
    的頭像 發(fā)表于 01-03 10:43 ?459次閱讀
    <b class='flag-5'>特斯拉</b>超預期交付,比亞迪登頂全球銷量之冠

    伯恩斯坦分析師:特斯拉和比亞迪之間的估值差距不合理

    伯恩斯坦公司的分析師Toni Sacconaghi和Eunice Lee表示,考慮到特斯拉和比亞迪的銷售額、純電動汽車銷售及利潤相似,很難彌補特斯拉(市值約7300億美元)和比亞迪(市值約840億美元)之間的市值差距。
    的頭像 發(fā)表于 11-30 09:39 ?507次閱讀

    Mobileye披露2023財年第三季度業(yè)務亮點

    (GAAP)為0.02美元,調(diào)整后攤薄每股收益(非GAAP)為0.22美元。 ? ? ? ?? 與主要汽車制造商在高階產(chǎn)品合作方面持續(xù)取得進展,并在第三季度與中國一汽(Mobileye
    的頭像 發(fā)表于 10-30 09:59 ?671次閱讀