0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么要優(yōu)化可泊空間預(yù)測算法?泊車Freespace檢測方法如何優(yōu)化?

jf_C6sANWk1 ? 來源:焉知汽車 ? 2023-11-29 10:38 ? 次閱讀

基于視覺的環(huán)視可用空間檢測是自動停車輔助(APA)的基本任務(wù)之一。任務(wù)是根據(jù)圖像輸入識別環(huán)視自由空間,即 360 度視圖中車輛可行駛而不會發(fā)生碰撞的簡單連接的道路區(qū)域。盡管激光掃描儀能夠捕獲準(zhǔn)確的深度信息而經(jīng)常用于此任務(wù),但基于視覺的方法由于其顯著的成本優(yōu)勢而繼續(xù)引起人們的興趣。

與行車場景相比,泊車場景中的自由空間檢測提出了對邊界精度的要求。這是因為停車場景中的障礙物顯得更密集,并且更緊密地聚集在車輛周圍。因此,精確定位這樣的邊界可能非常具有挑戰(zhàn)性,特別是對于環(huán)視圖像。與分別對每個單一視圖進(jìn)行檢測并合并結(jié)果相比,從環(huán)視圖像中進(jìn)行檢測更有利泊車輔助,其優(yōu)勢在于它可以一次性提供一整塊可用空間,從而在推理時間上具有優(yōu)勢。然而,魚眼相機(jī)輸入和相應(yīng)的圖像馬賽克分別接近大規(guī)模拉伸扭曲和刺眼陰影,從而使邊界變得模糊。此外,在停車場景中,障礙物往往指的是車輛和行人,它們的大小、方向和位置差異也很大。

在本文中,我們將介紹從多個魚眼相機(jī)輸入拼接而成的環(huán)視圖像直接預(yù)測自由空間(圖1(a)-(b))。

36a9f5b2-8e53-11ee-939d-92fbcf53809c.png

圖1:(a)前、后、左、右四個視角的魚眼相機(jī)拍攝的圖像,(b)環(huán)視圖像,(c)自由空間邊界的極坐標(biāo)表示

在上圖1中,驅(qū)動車輛(黑色塊)位于圖像的中心,并且始終被自由空間邊界包圍。因此,以圖像中心為原點,每個邊界點由極角和極角點決定。圓弧半徑的邊界點的順序是自然確定的。此外,在特定的極角采樣間隔下,邊界可以采樣到一組點,然后緊湊地表示為極半徑序列。直接序列回歸不僅可以明確關(guān)注邊界定位的準(zhǔn)確性,而且還可以顯著降低計算成本。

為什么要優(yōu)化可泊空間預(yù)測算法

由于邊界定位的高精度要求,現(xiàn)有的自由空間檢測方法不再適用于我們的任務(wù)。最近的方法利用全卷積網(wǎng)絡(luò)(FCN),它將自由空間檢測視為二進(jìn)制分割問題。這種逐像素表示過于復(fù)雜且區(qū)域化,僅反映整體性能,很少關(guān)注邊界定位的精度。這種逐像素表示不僅會淡化邊界定位的重要性,而且還會引入額外的計算成本,因為高維特征圖之后的后續(xù)上采樣卷積層。盡管已經(jīng)有相當(dāng)多的算法提出了幾種方法來直接使用中心分類和距離回歸來預(yù)測邊界,但中心熱圖和距離回歸仍然是逐像素的方式,同時,這些方法也還面臨著昂貴的計算成本。

為了捕獲預(yù)測中的非局部依賴性,使用Transformer網(wǎng)絡(luò)來集成障礙物信息并建模全局上下文。Transformer 廣泛應(yīng)用于計算機(jī)視覺領(lǐng)域,在捕獲全局上下文和建模非局部依賴關(guān)系方面表現(xiàn)了出非凡的性能,這就很自然的想到利用Transformer來解決大規(guī)模扭曲和全局穩(wěn)定性問題。該網(wǎng)絡(luò)將環(huán)視圖像作為輸入,并端到端地回歸極半徑序列。

此外,在訓(xùn)練過程中,利用T-IoU(Triangle-IoU,交并比Intersection-over-Union)損失來表示相鄰點的關(guān)系并整體優(yōu)化邊界的匹配過程也是本文介紹的方法之一。

自由空間檢測的傳統(tǒng)算法范圍從像素級算法升級到占用網(wǎng)格。近年來,研究人員將全卷積網(wǎng)絡(luò)FCNs應(yīng)用于自由空間檢測。標(biāo)準(zhǔn)全卷積網(wǎng)絡(luò) FCN 模型由編碼器到解碼器架構(gòu)組成,該架構(gòu)在編碼器中提取高級特征表示,并在解碼器中將表示上采樣為全分辨率分割。盡管 FCN 在自由空間檢測中實現(xiàn)了出色的精度,但它們本質(zhì)上是為每像素分類而設(shè)計的。

36e36cde-8e53-11ee-939d-92fbcf53809c.png

圖2:FCN網(wǎng)絡(luò)基本檢測邏輯

此外,一些方法預(yù)測每個圖像列的垂直坐標(biāo)以直接表示自由空間邊界。然而,這些方法不適用于環(huán)視圖像,因為環(huán)視邊界不沿著行,導(dǎo)致每列上邊界點的數(shù)量和順序關(guān)系不明確。這點上,極坐標(biāo)系在旋轉(zhuǎn)和方向相關(guān)問題上具有先天的優(yōu)勢。這種方法利用一個中心點、一個極半徑和兩個極角來表示遙感圖像中的邊界框。在對象檢測和實例分割領(lǐng)域提出了類似的解決方案,可以概括為兩個并行任務(wù):中心預(yù)測和距離回歸。然而,它們更像是逐像素預(yù)測方式,并且需要 NMS(非極大值抑制的方法)作為后處理。相比之下,本文所介紹的方法在極坐標(biāo)中對自由空間邊界進(jìn)行建模,并端到端地預(yù)測極半徑,它放棄了逐像素方式,并且不需要后處理。

在本文中,我們將介紹自由空間重新構(gòu)建為自由空間邊界的極坐標(biāo)表示,并利用轉(zhuǎn)換器框架來進(jìn)行端到端地回歸表示。為了限制自由空間的整體形狀,我們引入了Triangle-IoU損失函數(shù),使網(wǎng)絡(luò)能夠?qū)⑦吔缫暈橐粋€整體。

泊車Freespace檢測方法到底如何優(yōu)化?

1、自由空間邊界的極坐標(biāo)表示

為了在極坐標(biāo)系中建模環(huán)視自由空間邊界,我們首先將圖像中心c=(xc,yc)設(shè)置為極坐標(biāo)系的原點,水平向右方向為極軸正方向,順時針方向為極角的正方向(以弧度為單位)。為了形成閉合曲線,極角限制在[0,2π)范圍內(nèi)變化。以相同的極角采樣間隔Δθ=2Nπ采樣N個邊界點,第i個采樣點可以用(ρi,θi)表示,其中極半徑ρi由到 c的距離和極角θi=i·Δθ確定,其中i∈{0,1,2,...,N ?1}。

至此,在極坐標(biāo)系下,環(huán)視自由空間邊界ψ可依次表示為:

ψ={(ρ0,θ0),ρ1,θ1),...,(ρN?1,θN?1)} 。已知θi 時,需要預(yù)測的元素僅為極半徑,而ψ可以進(jìn)一步簡化為:ρ={ρ0,ρ1,...,ρN?1}。

為了定性評估自由空間邊界的精度,我們將極點轉(zhuǎn)換為笛卡爾點。笛卡爾點 (xi , yi) 可以從 (ρi,θi)表示如下:

xi = xc +ρi·cos(θi),yi = yc +ρi·sin(θi)。(1)

最后,用直線將相鄰的點按順序連接起來,形成一條閉合曲線,代表自由空間的邊界,這個邊界包圍的區(qū)域被視為自由空間。對自由空間邊界的極坐標(biāo)表示只是一個包含 N 個元素的序列,這是參數(shù)的顯著簡化。

2、邊界檢測模型

圖 3 說明了整個模型的整體流程。給定一個環(huán)視圖像 I 作為輸入,網(wǎng)絡(luò)輸出一個端到端的序列?ρ,包含一組極半徑。

36f80432-8e53-11ee-939d-92fbcf53809c.png

圖 3:管道。給定環(huán)視圖像 I 作為輸入,網(wǎng)絡(luò)輸出極半徑的序列 ?ρ,可泊空間表示將極半徑與極角配對得到采樣點,通過連接采樣點生成自由空間邊界B。

通過分配預(yù)定的極角序列ψθ,得到一組采樣邊界點。將這些點依次用直線連接起來,就可以得到預(yù)測的邊界B和相應(yīng)的自由空間Freespace。

該網(wǎng)絡(luò)通過主干網(wǎng)、Transformer和用于序列預(yù)測的前饋網(wǎng)絡(luò)(FFN)組成。在主干中,應(yīng)用ResNet18來提取低分辨率圖像特征。Transformer編碼器和Transformer解碼器都由兩個相同的層堆疊而成。每個編碼器主要由多頭自注意力模塊組成,通過并行注意力操作對圖像特征關(guān)系進(jìn)行建模,以生成圖像嵌入。每個解碼器在自注意力模塊之后都有一個額外的多頭交叉注意力模塊,用于計算與圖像嵌入和序列的交互。最后,F(xiàn)FN 通過 3 層感知器將Transformer的輸出投影為 ?ρ。

3、三角形IoU損失(T-IoU損失)

為了限制邊界點的位置,一個不太成熟的處理方式是利用l1損失來監(jiān)督預(yù)測序列。然而,l1損失是為了單點的精度而設(shè)計的,因此,這種方式忽略了相鄰點之間的關(guān)系和邊界的整體形狀,從而導(dǎo)致不夠平滑和局部模糊。相反,IoU 在目標(biāo)檢測、語義分割中用于判斷兩個圖片或者框的重合程度這方面得到了廣泛的應(yīng)用,他的計算過程是將自由空間視為一個整體,并期望邊界在形狀和大小方面表現(xiàn)合理。

為了發(fā)揮IoU的優(yōu)勢,我們首先在groundtruth邊界上以極角2Nπ的采樣間隔進(jìn)行均勻采樣,以獲得N個真值GroundTruth極半徑的離散序列。同時,將地面真值序列表示為 ??ρ 。Polar IoU提到自由空間的面積可以用無限組扇形區(qū)域來表示。然而,在有限的采樣角度下,僅利用一個半徑的扇形區(qū)域無法擬合復(fù)雜的形狀。由于預(yù)測點是用直線連接的,因此采樣自由空間由具有共享中心點的三角形聚集。在這種情況下,將 Polar IoU 中的扇形區(qū)域替換為利用兩個相鄰極半徑的三角形區(qū)域。

根據(jù)三角形面積SΔ=1/2*sinΔθ·ρ1ρ2的計算公式,可以計算出三角形IoU(T-IoU):

37139832-8e53-11ee-939d-92fbcf53809c.png

其中,ρN = ρ0 且 ?ρN = ?ρ0。ρi max 表示max(ρi ,?ρi),ρimin表示min(ρi ,?ρi )。T-IoU不僅比Polar IoU在有限采樣角度下對自由空間有更精確的表示,而且通過學(xué)習(xí)相鄰關(guān)系可以更好地適應(yīng)細(xì)長障礙物中極半徑的快速變化。 由于T-IoU的范圍為[0, 1],最優(yōu)值為1,因此T-IoU損失可以表示為T-IoU的二元交叉熵。省略常數(shù)項 1/2sin 2N/π,T-IoU 損失可以簡化如下:

371a5abe-8e53-11ee-939d-92fbcf53809c.png

分割網(wǎng)SegNet用于魚眼相機(jī)自由空間檢測。對于實際應(yīng)用,可以選擇SegNet作為基本版本。為了分析分割方法中的邊界精度,本文對分割圖進(jìn)行后處理:獲取最大連通區(qū)域的外邊界并將其作為預(yù)測。因此,本文介紹的方法與以前的自由空間檢測方法進(jìn)行比較,后者可以說是將自由空間視為二進(jìn)制分割的問題。

372925f8-8e53-11ee-939d-92fbcf53809c.png

圖 4:紅線代表自由空間邊界。細(xì)長的、大型的障礙物都包含有各種照明和停車場景

與邊界檢測方法的比較。PolarMask提出通過中心分類和距離回歸來預(yù)測實例分割中的邊界。由于不需要中心分類,這就可以刪除PolarMask 中的中心頭和分類頭,只級聯(lián)一個平均池化層,然后是回歸頭。由此,就計算成本而言,與常規(guī)的方法比較而言,這里提出的方法只有9.7個GMAC,比其他方法要小,差異主要來自處理提取特征的模塊。

37421dec-8e53-11ee-939d-92fbcf53809c.png

圖 5:(a)計算成本比較。(b)失敗案例

如上右圖所示,SegNet-Basic的解碼器需要14.8個GMAC,由于一系列上采樣操作而導(dǎo)致大量冗余。PolarMask 的頭部也采用了 15.1 個 GMAC 和一系列卷積層。相反,Transformer 僅需要 0.2 GMAC 來預(yù)測邊界點,這顯著簡化了過程。

那么T-IoU 損失如何影響學(xué)習(xí)呢?T-IoU損失在BAE中達(dá)到6.94像素。相比之下,l1 損失達(dá)到 7.84 BAE,領(lǐng)先 0.90 個像素。邊際表明,使用邊界的整體形狀進(jìn)行訓(xùn)練比僅關(guān)注孤立點更有效。此外,T-IoU 損失在 BAE 中比 Polar IoU 損失高出 0.42 個像素。我們將這種改進(jìn)歸因于更好的邊界表示以及對相鄰點之間關(guān)系的考慮。

可泊空間預(yù)測過程中還有哪些需要深入考慮的問題?

當(dāng)然,由于傳感器遮擋也可能導(dǎo)致預(yù)測失敗。如上右圖,本文提出的極坐標(biāo)表示方式也無法通過從圖像中心發(fā)出的光線覆蓋藍(lán)色區(qū)域。

同時,由于離散采樣,對自由空間邊界的極坐標(biāo)表示丟失了部分細(xì)節(jié)。地面實況極半徑 ?ψρ 可以聚合到采樣地面實況邊界 ?Bs 。為了定量分析損失,我們計算真實邊界 ?B 和采樣真實邊界之間的 BAE 分?jǐn)?shù)邊界 ^Bs ,這是理想的上限。

3762a83c-8e53-11ee-939d-92fbcf53809c.png

圖 6:(a) 重建誤差分析 ;(b) 不同采樣極角數(shù)量的影響

從上圖6(a)中我們觀察到采樣更多的極角可以實現(xiàn)更高的上限并恢復(fù)更精細(xì)的結(jié)構(gòu)。當(dāng)采樣極角數(shù)量超過 360 時,上限的改進(jìn)也會變得微不足道。在圖6(b)中,我們對30到720個采樣極角的數(shù)量進(jìn)行了實驗,發(fā)現(xiàn)具有360個采樣極角的輸出表現(xiàn)最好。隨著采樣極角數(shù)量的增加,模型將接收到更精確的結(jié)構(gòu)信息,并預(yù)測更詳細(xì)的邊界。然而,當(dāng)采樣極角的數(shù)量太大時,邊界表現(xiàn)得過于離散,模型的能力在編碼如此繁瑣的序列時將受到挑戰(zhàn),導(dǎo)致平滑度降低。

3774fb40-8e53-11ee-939d-92fbcf53809c.png

圖7:解碼器交叉注意力模塊中的注意力圖

如上圖7 顯示了 Transformer 解碼器的交叉注意力模塊中的注意力圖??梢钥吹?,對于序列中的特定極半徑,圖像嵌入與自由空間邊界附近的可能區(qū)域有效性相關(guān)。角度信息也是通過位置嵌入隱式學(xué)習(xí)的。

總結(jié)

基于視覺的環(huán)視可用空間檢測對于自動泊車輔助至關(guān)重要。在這項任務(wù)中,精確的邊界定位是最受關(guān)注的問題。本文提出的方法可概括如下:

通過建議將自由空間重新構(gòu)建為自由空間邊界的極坐標(biāo)表示,明顯簡化表示并增強(qiáng)對邊界定位的關(guān)注。

利用變壓器框架來解決長序列預(yù)測問題。此外,提出了 T-IoU 損失來提高相鄰預(yù)測的相關(guān)性。

在停車場景中引入了一個大規(guī)模數(shù)據(jù)集,帶有邊界注釋和評估邊界質(zhì)量的有效指標(biāo)。本文介紹的方法在大規(guī)模數(shù)據(jù)集上具有良好的性能,并且對新的停車場景表現(xiàn)出很強(qiáng)的泛化能力。

在本文中,我們介紹一種將自由空間重新構(gòu)建為自由空間邊界的極坐標(biāo)表示,并利用轉(zhuǎn)換器框架來端到端地回歸極坐標(biāo)表示?;诃h(huán)視自由空間是一個簡單連通區(qū)域并且可以在給定邊界的情況下輕松還原對應(yīng)的聯(lián)通部分,這里主張將自由空間檢測轉(zhuǎn)換為邊界點預(yù)測問題。為了有效地對這些點進(jìn)行建模,我們利用極坐標(biāo)表示,這在曲線描述中具有固有的優(yōu)勢。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1128

    瀏覽量

    40586
  • 計算機(jī)視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1689

    瀏覽量

    45874
  • FCN
    FCN
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    8748
  • ADAS系統(tǒng)
    +關(guān)注

    關(guān)注

    4

    文章

    226

    瀏覽量

    25647
  • 卷積網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    0

    文章

    42

    瀏覽量

    2145

原文標(biāo)題:ADAS系統(tǒng)中的可行使區(qū)域Freespace到底如何檢測?---泊車篇

文章出處:【微信號:阿寶1990,微信公眾號:阿寶1990】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    CCD圖像分析方法預(yù)測算法???

    CCD圖像分析方法預(yù)測算法???
    發(fā)表于 07-01 15:20

    人臉檢測算法及新的快速算法

    人臉檢測算法及新的快速算法人臉識別設(shè)備憑借著便捷的應(yīng)用,以及更加新潮的技術(shù),俘獲了不少人的好感。于是,它的應(yīng)用也在日益的變得更加的廣泛。由中國電子學(xué)會主辦的全國圖形圖像技術(shù)應(yīng)用大會,行業(yè)專家將介紹
    發(fā)表于 09-26 15:13

    雷達(dá)目標(biāo)檢測算法研究及優(yōu)化

    題在檢測 單 元 的速度維采用 SO- C FA民 算法 。 S O- CFAR 屬 于均 值 類 的 檢測 器 , 在 估 算背 景 雜 波功 率時 ,二維多 策略恒虛警檢測算法
    發(fā)表于 02-28 09:19

    雷達(dá)目標(biāo)檢測算法研究及優(yōu)化

    SO- C FA民 算法 。 S O- CFAR 屬 于均 值 類 的 檢測 器 , 在 估 算背 景 雜 波功 率時 ,二維多 策略恒虛警檢測算法優(yōu)化本 文在 第 4 章 對雷 達(dá)
    發(fā)表于 03-29 10:53

    分享一款高速人臉檢測算法

    目前優(yōu)化了一款高速人臉檢測算法,在 ARM設(shè)備的A73單核CPU(圖像大小:860*540最小人臉大?。?0*60)速度可以高達(dá)10-15ms每幀,真正的實時人臉檢測算法,算法準(zhǔn)確率在
    發(fā)表于 12-15 07:01

    嵌入式軟件算法優(yōu)化的原則及其方法

    程序?qū)崿F(xiàn)的功能一致;(2)有效原則:優(yōu)化后要比優(yōu)化前運行速度快或占用存儲空間小,或二者兼有;(3)經(jīng)濟(jì)原則:優(yōu)化程序要付出較小的代價,取得較好的結(jié)果。二、
    發(fā)表于 12-21 06:54

    基于YOLOX目標(biāo)檢測算法的改進(jìn)

    系統(tǒng)的關(guān)鍵任務(wù)之一,其主要的功能是檢測前方道路上出現(xiàn)的目標(biāo)的空間位置和目標(biāo)類別。傳統(tǒng)目標(biāo)檢測算法依賴于手工設(shè)計好的特征來對目標(biāo)進(jìn)行特征提取,以實現(xiàn)分類和檢測的目的,常見的目標(biāo)特征包括
    發(fā)表于 03-06 13:55

    基于閾值優(yōu)化的圖像模糊邊緣檢測算法

    邊緣檢測是圖像預(yù)處理中最重要的內(nèi)容之一,本文使用遺傳算法對閾值優(yōu)化得到最佳閾值參數(shù),對模糊邊緣檢測算法進(jìn)行改進(jìn),根據(jù)此最佳閾值來定義一個新的簡單隸屬度函數(shù),簡
    發(fā)表于 06-06 15:49 ?26次下載

    基于空間剖分的碰撞檢測算法

    針對碰撞檢測實時性與精確性不高的問題,提出一種基于空間剖分和分類遍歷的碰撞檢測算法。首先在空間剖分階段利用八叉樹空間剖分剔除不相交的物體對,
    發(fā)表于 11-16 10:32 ?2次下載
    基于<b class='flag-5'>空間</b>剖分的碰撞<b class='flag-5'>檢測算法</b>

    基于粒子群優(yōu)化算法的屬性異常檢測算法

    提出一種新的基于粒子群優(yōu)化算法的屬性異常檢測算法。該算法利用粒子群優(yōu)化算法簡單、尋優(yōu)速度快的優(yōu)點
    發(fā)表于 11-20 09:21 ?4次下載

    基于概率圖模型的時空異常事件檢測算法

    當(dāng)網(wǎng)絡(luò)異常事件發(fā)生時,傳感器節(jié)點間的時空相關(guān)性往往非常明顯。而現(xiàn)有方法通常將時間和空間數(shù)據(jù)性質(zhì)分開考慮,提出一種分散的基于概率圖模型的時空異常事件檢測算法。該算法首先利用連通支配集
    發(fā)表于 12-28 15:54 ?0次下載
    基于概率圖模型的時空異常事件<b class='flag-5'>檢測算法</b>

    將置信規(guī)則庫分級優(yōu)化的網(wǎng)絡(luò)安全態(tài)勢預(yù)測方法

    有限的特性,提出一種將置信規(guī)則庫分級優(yōu)化的網(wǎng)絡(luò)安全態(tài)勢預(yù)測方法。建立模型作用空間并劃分規(guī)則作用域,將訓(xùn)練數(shù)據(jù)按照輸入坐標(biāo)分配到對應(yīng)的規(guī)則作用域,通過設(shè)定臨界值將規(guī)則劃分為
    發(fā)表于 03-16 10:47 ?11次下載
    將置信規(guī)則庫分級<b class='flag-5'>優(yōu)化</b>的網(wǎng)絡(luò)安全態(tài)勢<b class='flag-5'>預(yù)測</b><b class='flag-5'>方法</b>

    基于改進(jìn)的蝗蟲優(yōu)化算法的LSTM預(yù)測方法

    當(dāng)前國內(nèi)“血荒”問題比較嚴(yán)峻,血站與用血單位之間存在著血液供不應(yīng)求的現(xiàn)象。針對這個問題,提出了一種基于改進(jìn)的蝗蟲優(yōu)化算法的LSTM預(yù)測方法,用于對未來的紅細(xì)胞供應(yīng)情況進(jìn)行
    發(fā)表于 04-14 14:09 ?7次下載
    基于改進(jìn)的蝗蟲<b class='flag-5'>優(yōu)化</b><b class='flag-5'>算法</b>的LSTM<b class='flag-5'>預(yù)測</b><b class='flag-5'>方法</b>

    基于粒子群算法的車聯(lián)網(wǎng)交通流量預(yù)測算法

    文中提出一種基于量子粒子群優(yōu)化策略的車聯(lián)網(wǎng)交通流量預(yù)測算法。根據(jù)交通流量數(shù)據(jù)特征建立對應(yīng)模型,將遺傳模擬退火算法應(yīng)用到量子粒子群算法中得到優(yōu)化
    發(fā)表于 04-25 15:04 ?9次下載
    基于粒子群<b class='flag-5'>算法</b>的車聯(lián)網(wǎng)交通流量<b class='flag-5'>預(yù)測算法</b>

    直線檢測算法匯總

    在計算機(jī)視覺領(lǐng)域,我們經(jīng)常需要做一些特殊的任務(wù),而這些任務(wù)中經(jīng)常會用到直線檢測算法,比如車道線檢測、長度測量等。盡管直線檢測的任務(wù)看起來比較簡單,但是在具體的應(yīng)用過程中,你會發(fā)現(xiàn)這里面還是有很大的
    的頭像 發(fā)表于 11-25 17:25 ?1309次閱讀