0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

0參數(shù)量+0訓練,3D點云分析方法Point-NN刷新多項SOTA

OpenCV學堂 ? 來源:機器之心 ? 2023-07-19 16:29 ? 次閱讀

不引入任何可學習參數(shù)或訓練,是否可以直接實現(xiàn) 3D 點云的分類、分割和檢測

32cc21fc-2609-11ee-962d-dac502259ad0.png

論文鏈接:https://arxiv.org/pdf/2303.08134.pdf

代碼地址:https://github.com/ZrrSkywalker/Point-NN

本文提出了一個用于 3D 點云分析的非參數(shù)網(wǎng)絡 Point-NN,它僅由純不可學習的組件組成:最遠點采樣(FPS)、k 近鄰(k-NN)、三角函數(shù)(Trigonometric Functions)以及池化(Pooling)操作。不需要參數(shù)和訓練,它能夠在各種 3D 任務上都取得不錯的準確率,甚至在 few-shot 分類上可以大幅度超越現(xiàn)有的完全訓練的模型。 基于 Point-NN 的非參數(shù)框架,這項研究對于當前 3D 領域的貢獻如下: 1、首先,我們可以通過插入簡單的線性層,來構建 Point-NN 的參數(shù)化網(wǎng)絡,Point-PN。由于 Point-NN 具有強大的非參數(shù)基礎,所構建出的 Point-PN 僅需要少量可學習參數(shù)就可以表現(xiàn)出優(yōu)秀的 3D 分類和分割性能。 2、其次,由于 Point-NN 不需要訓練的屬性,我們可以將其作為一個即插即用的增強模塊,去增強現(xiàn)有已經(jīng)訓練好的 3D 模型。通過提供互補知識,Point-NN 可以在各種 3D 任務上提升原本的 SOTA 性能。 一、引言1. 動機 3D 點云的處理和分析是一項具有挑戰(zhàn)性的任務,并且在學術界和工業(yè)界都取得了廣泛的關注。自從 PointNet++ 起,后續(xù)的 3D 模型為了提升性能,一方面設計了更加復雜的局部空間算子,一方面增大了網(wǎng)絡的可學習參數(shù)量。然而,除了不斷更新的可學習模塊,他們基本都沿用了同一套潛在的多尺度網(wǎng)絡框架,包括最遠點采樣(FPS)、k 近鄰(k-NN)和池化(Pooling)操作。目前,還幾乎沒有研究去探索這些非參數(shù)組件的潛力;因此,本文提出并探索了以下問題:這些非參數(shù)組件對于 3D 理解的貢獻有多大?僅僅使用非參數(shù)組件,能否實現(xiàn)無需訓練的 3D 點云分析? 2. 貢獻

332ce4b0-2609-11ee-962d-dac502259ad0.png

為了解決以上問題,本文首次提出了一個非參數(shù)化(Non-Parametric)的 3D 網(wǎng)絡,Point-NN,整體結構如上圖所示。Point-NN 由一個用于 3D 特征提取的非參數(shù)編碼器(Non-Parametric Encoder)和一個用于特定任務識別的點云記憶庫(Point-Memory Bank)組成。非參數(shù)編碼器采用了多階段的結構設計,使用了最遠點采樣(FPS)、k 近鄰(k-NN)、三角函數(shù)(Trigonometric Functions)和池化(Pooling)來逐步聚合局部幾何圖形,為點云生成一個高維度的全局特征。我們僅僅采用了簡單的三角函數(shù)來捕捉局部空間幾何信息,沒有使用任何可學習算子。接下來,我們使用此編碼器,去提取到所有訓練集點云的特征,并緩存為點云記憶庫。進行測試時,點云記憶庫通過對測試點云和訓練集點云的特征,進行相似度匹配,來輸出特定任務的預測。 不需要任何訓練,Point-NN 可以在多種 3D 任務中實現(xiàn)優(yōu)越的性能,例如 3D 分類、分割、檢測,甚至可以超過一些現(xiàn)有的經(jīng)過完全訓練的模型?;诖耍覀冞M一步提出了兩點 Point-NN 對于現(xiàn)今 3D 領域的貢獻,如下圖(a)和(b)所示:

33621eb4-2609-11ee-962d-dac502259ad0.png

1)以 Point-NN 為基礎框架,我們通過在 Point-NN 的每個階段插入簡單的線性層,引入了其 parameter-efficient 的變體 Point-PN,如上圖 (a) 所示。Point-PN 不包含復雜的局部算子,僅僅包含線性層以及從 Point-NN 繼承的三角函數(shù)算子,實現(xiàn)了效率和性能的雙贏。 2)我們將 Point-NN 作為一個即插即用的模塊,為各種 3D 任務中訓練好的模型提供互補知識,并在推理過程中可以直接提升這些訓練模型的性能,如上圖 (b) 所示。 二、方法 1.Point-NN Point-NN 由一個 Non-Parametric Encoder (EncNP) 和一個 Point-Memory Bank (PoM) 組成。對于輸入的點云,我們使用 EncNP 提取其全局特征,并通過 PoM 的特征相似度匹配,來輸出分類結果,公式如下圖所示:

33c2635a-2609-11ee-962d-dac502259ad0.png

接下來,我們依次介紹 Point-NN 中的這兩個模塊。 (1)非參數(shù)編碼器 (Non-Parametric Encoder) 非參數(shù)編碼器首先將輸入點云進行 Raw-point Embedding,將 3 維的原始點坐標轉化為高維度特征,再經(jīng)過 4 個階段的 Local Geometry Aggregation 逐步聚合局部特征得到最終的點云全局特征,如下圖所示。

33e9ab5e-2609-11ee-962d-dac502259ad0.png

a. 原始點云映射 (Raw-point Embedding) 我們參考了 Transformer 中的 positional encoding,對于輸入點云的一個點

3444b71a-2609-11ee-962d-dac502259ad0.png

,利用三角函數(shù)將它嵌入到一個維向量中:

3466c67a-2609-11ee-962d-dac502259ad0.png

其中

34932c88-2609-11ee-962d-dac502259ad0.png

分別表示三個軸的位置編碼。以34aedd3e-2609-11ee-962d-dac502259ad0.png為例,對于通道索引

34c7d8d4-2609-11ee-962d-dac502259ad0.png

,具體的位置編碼公式如下:

34da2692-2609-11ee-962d-dac502259ad0.png

其中,α,β 分別控制了尺度和波長。通過這種三角函數(shù)的編碼,我們可以將點云的絕對位置信息映射到高維度的特征空間中,并通過后續(xù)的點乘操作可以根據(jù)權重獲取不同點之間的相對位置信息,并捕獲三維形狀的細粒度結構變化。 b. 局部幾何特征的聚合 (Local Geometry Aggregation) 對于每一個點云尺度的處理,我們分為三個步驟。 首先是特征擴維 (Feature Expansion)。我們使用 FPS 進行點云數(shù)量的下采樣,對于下采樣后得到的每一個中心350e138a-2609-11ee-962d-dac502259ad0.png,我們采用 k-NN 去找到他的 k 個鄰域點35217060-2609-11ee-962d-dac502259ad0.png以及對應的特征353aadaa-2609-11ee-962d-dac502259ad0.png?;诖?,我們將中心點特征35511f54-2609-11ee-962d-dac502259ad0.png353aadaa-2609-11ee-962d-dac502259ad0.png在特征維度進行拼接,實現(xiàn)特征擴維,這樣可以在更深的網(wǎng)絡層中編碼更多的語義信息: ?

357ee1fa-2609-11ee-962d-dac502259ad0.png

其次是幾何信息提取 (Geometry Extraction)。我們先使用均值和標準差對35b4399a-2609-11ee-962d-dac502259ad0.png的坐標進行歸一化,并使用三角函數(shù)進行相對位置

35c8ab46-2609-11ee-962d-dac502259ad0.png

的編碼,來獲取35b4399a-2609-11ee-962d-dac502259ad0.png的相對幾何權重,標記為

35f63a98-2609-11ee-962d-dac502259ad0.png

。之后,我們通過下面的公式得到加權后的鄰域特征3614a122-2609-11ee-962d-dac502259ad0.png。 ?

362cca54-2609-11ee-962d-dac502259ad0.png

最后是局部特征聚和 (Feature Aggregation)。我們利用最大池化和平均池化來進行局部特征聚合。

36581efc-2609-11ee-962d-dac502259ad0.png

在完成 4 個階段的 Local Geometry Aggregation 后,我們再次運用最大池化和平均池化來得到點云的全局特征。 (2)點云記憶庫 (Point-Memory Bank) 在經(jīng)過非參數(shù)編碼器 (Non-Parametric Encoder) 的特征提取后,由于 Point-NN 不含任何可學習參數(shù),我們沒有使用傳統(tǒng)的可學習分類頭,而是采用了無需訓練的 point-memory bank。首先,我們使用非參數(shù)編碼器去構造關于訓練集的 bank,接著在推理過程通過相似度匹配輸出預測,如下圖所示。

367f6eb2-2609-11ee-962d-dac502259ad0.png

a. 記憶構建 (Memory Construction) Point memory 包括一個 feature memory36d1ef0c-2609-11ee-962d-dac502259ad0.png和一個 label memory36e92cf8-2609-11ee-962d-dac502259ad0.png。以點云分類任務為例,假設給定的訓練集包含 K 個類別的 N 個點云

370e0032-2609-11ee-962d-dac502259ad0.png

。通過 Non-Parametric Encoder 可以得到 N 個訓練集點云的全局特征,同時將對應的分類標簽

371fc628-2609-11ee-962d-dac502259ad0.png

轉換為 one-hot 編碼,接著將它們沿著樣本維度進行拼接,緩存為兩個矩陣。

3737dda8-2609-11ee-962d-dac502259ad0.png

b. 基于相似度的預測 (Similarity-based Prediction) 在推理階段,我們利用構造好的 bank 進行兩個矩陣乘法來完成分類。首先,我們通過 Non-Parametric Encoder 來計算測試點云的全局特征37782ef8-2609-11ee-962d-dac502259ad0.png,并計算與 feature memory 36d1ef0c-2609-11ee-962d-dac502259ad0.png之間的余弦相似度。 ?

37a1cf88-2609-11ee-962d-dac502259ad0.png

接下來,將 label memory 36e92cf8-2609-11ee-962d-dac502259ad0.png中的 one-hot 標簽與37de4738-2609-11ee-962d-dac502259ad0.png進行加權,越相似的 feature memory 對最終的分類 logits 貢獻越大,反之亦然。 ?

37f54852-2609-11ee-962d-dac502259ad0.png

通過這種基于相似性的計算,point-memory bank 可以在不經(jīng)過任何訓練的情況下,學習到從訓練集中提取的知識,在推理過程自適應地完成不同任務。 2.Point–NN 在其他 3D 任務的拓展 以上主要是對 Point-NN 在分類任務中的應用的介紹,Point-NN 也可以被用于 3D 的部件分割和 3D 目標檢測任務。 (1)部件分割 (3D Part Segmentation) 與分類任務對全局特征進行提取再進行分類不同的是,部件分割需要對每個點進行分類。因此,論文采用了一個接在 non-parametric encoder 后的對稱的 non-parametric decoder,進行點云特征的上采樣,恢復至輸入時的點數(shù)量。具體來說,在 decoder 的每個階段,我們將局部中心點的特征通過相對位置加權,來擴散到周圍的領域點。對于 point-memory bank,首先使用 encoder 和 decoder 得到訓練集的每個點的特征,為了節(jié)省顯存消耗,對于每一個物體,我們將每個部件的特征取平均值,再作為 feature memory 存入到 bank 中。 (2)目標檢測 (3D Object Detection) 對于檢測任務,我們將 Point-NN 作為一個 3D 檢測器的分類頭使用。當預訓練好的檢測器產(chǎn)生 3D proposal 后,Point-NN 與分類任務相似,使用 non-parametric encoder 來獲取被檢測物體的全局特征。在構建 point-memory bank 時,我們在訓練集中對在每個 3D 框標簽內的點云進行采樣,將采樣后的每個物體的全局特征進行編碼得到 feature memory。特別的是,我們沒有像其他任務一樣對每個物體的點云坐標進行歸一化,這是為了保留在原始空間中的 3D 位置信息,實現(xiàn)更好的檢測性能。 3. 從 Point–NN 延伸 (Starting from Point-NN) (1)作為結構框架構建 Point-PN (As Architectural Frameworks) 我們講 Point-NN 視為一個良好的非參數(shù)化框架,在其中插入簡單的可學習線性層,來構建參數(shù)化的 3D 網(wǎng)絡,Point-PN。Point-PN 相比于現(xiàn)有的 3D 網(wǎng)絡,不含有復雜的局部算子,以極少的可學習參數(shù)量實現(xiàn)了優(yōu)秀的 3D 性能。

381be19c-2609-11ee-962d-dac502259ad0.png

我們構建 Point-PN 的步驟如下:首先,將 point-memory bank 替換為傳統(tǒng)的可學習的分類頭,如上圖(A)所示;在 ModelNet40 的分類任務上,這一步將分類性能從 Point-NN 的 81.8% 提高到了 90.3%,且僅僅使用了 0.3M 的參數(shù)量。接著,我們將 raw-point embedding 替換為線性層(B),可以將分類性能進一步提高到 90.8%。為了更好地提取多尺度層次特征,我們接著將線性層插入到每一階段的 non-parametric encoder 中。具體來說,在每個階段,兩個線性層分別被插入到 Geometry Extraction 的前后來捕捉高層空間信息,如圖中(C、D、E)所示。這樣,最終的 Point-PN 可以僅僅使用 0.8M 的參數(shù)量達到 93.8% 的性能,且只包括三角函數(shù)和簡單的線性層。這說明,與現(xiàn)有的高級的操作算子或者大參數(shù)兩相比,我們可以從非參數(shù)框架出發(fā),來獲取一個簡單高效的 3D 模型。

385fcc40-2609-11ee-962d-dac502259ad0.png

(2)作為即插即用模塊 (As Plug-and-play Modules) Point-NN 可以在不進行額外訓練的情況下增強現(xiàn)有 3D 預訓練模型的性能。以分類任務為例,我們直接將 Point-NN 與預訓練模型預測的分類 logits 進行相加,來提供互補的 3D 知識提升性能。如下圖對特征的可視化所示,Point-NN 主要提取的是點云的低層次高頻特征,在尖銳的三維結構周圍產(chǎn)生了較高的響應值,例如飛機的翼尖、椅子的腿和燈桿;而經(jīng)過訓練的 PointNet++ 更關注的是點云的高層次語義信息,通過對它們的 logits 相加可以得到互補的效果,例如,飛機的機身、椅子的主體和燈罩。

38a95400-2609-11ee-962d-dac502259ad0.png

三、實驗 1.Point-NN 和 Point-PN (1)3D 物體分類 (Shape Classification)

38dfce18-2609-11ee-962d-dac502259ad0.png

對于 2 個代表性的 3D 物體分類數(shù)據(jù)集,ModelNet40 和 ScanObjectNN,Point-NN 都獲得了良好的分類效果,甚至能夠在 ScanObjectNN 上超過完全訓練后的 3DmFV 模型。這充分說明了 Point-NN 在沒有任何的參數(shù)或訓練情況下的 3D 理解能力。 Point-PN 在 2 個數(shù)據(jù)集上也都取得了有競爭力的結果。對于 ScanObjectNN,與 12.6M 的 PointMLP 相比,Point-PN 實現(xiàn)了參數(shù)量少 16 倍,推理速度快 6 倍,并且精度提升 1.9%。在 ModelNet40 數(shù)據(jù)集上,Point-PN 獲得了與 CurveNet 相當?shù)慕Y果,但是少了 2.5X 的參數(shù)量,快了 6X 的推理速度。 (2)少樣本 3D 分類 (Few-shot Classification)

39212a02-2609-11ee-962d-dac502259ad0.png

與現(xiàn)有的經(jīng)過完全訓練的 3D 模型相比,Point-NN 的 few shot 性能顯著超過了第二好的方法。這是因為訓練樣本有限,具有可學習參數(shù)的傳統(tǒng)網(wǎng)絡會存在嚴重的過擬合問題。 (2)3D 部件分割 (Part Segmentation)

3966a0dc-2609-11ee-962d-dac502259ad0.png

70.4% 的 mIoU 表明由 Point-NN 在分割任務中也可以產(chǎn)生執(zhí)行良好的單點級別的特征,并實現(xiàn)細粒度的 3D 空間理解。 Poinnt-PN 能夠取得 86.6% 的 mIoU。與 Curvenet 相比,Point-PN 可以節(jié)省 28 小時的訓練時間,推理速度快 6X。 (3)3D 目標檢測 (3D Object Detection)

39cd1ad8-2609-11ee-962d-dac502259ad0.png

將 Point-NN 作為檢測器的分類頭,我們采用了兩種流行的 3D 檢測器 VoteNet 和 3DETR-m 來提取類別無關的 3D region proposals。由于我們沒有進行點云坐標的歸一化處理(w/o nor.),這樣可以保留原始場景中更多物體三維位置的信息,大大提升了 Point-NN 的 AP 分數(shù)。 2.Point-NN 的即插即用 (Plug-and-play) (1)3D 物體分類 (Shape Classification)

3a16e55a-2609-11ee-962d-dac502259ad0.png

Point-NN 可以有效提高現(xiàn)有方法的分類性能,在 ScanObjectNN 數(shù)據(jù)集上,Point-NN 可以對 PointNet 和 PoitMLP 的分類準確率均提高 2%。 (2)3D 分割和檢測 (Segmentation and Detection)

3a5f9890-2609-11ee-962d-dac502259ad0.png

對于分割任務,由于 ShapeNetPart 數(shù)據(jù)集上的測評指標已經(jīng)比較飽和,Point-NN 對 CurveNet 提升的 0.1% 已經(jīng)是很好的效果。對于檢測任務,Point-NN 對 3DETR-m 的增強達到了很好的 1.02%3a8fbbec-2609-11ee-962d-dac502259ad0.png和 11.05%

3aa99986-2609-11ee-962d-dac502259ad0.png

。

四、討論 1. 為什么 Point-NN 中的三角函數(shù)可以編碼 3D 信息? (1)捕獲高頻的 3D 結構信息 通過下圖中 Point-NN 特征的可視化,以及我們分解出的點云低頻和高頻信息,可以觀察到 Point-NN 主要捕獲了點云的高頻空間特征,例如邊緣、拐角以及其它細粒度的細節(jié)。

3ac1736c-2609-11ee-962d-dac502259ad0.png

(2)編碼點之間的相對位置信息 三角函數(shù)本身可以提供點云的絕對位置信息。對于兩個點

3b3f00c0-2609-11ee-962d-dac502259ad0.png

3b6402ee-2609-11ee-962d-dac502259ad0.png

,首先獲取它們的 C 維的位置編碼,公式如下:

3b81e796-2609-11ee-962d-dac502259ad0.png

而它們之前的相對位置關系可以通過它們之間的點乘得到,公式如下:

3baf2b2a-2609-11ee-962d-dac502259ad0.png

以 x 軸為例,

3bd9873a-2609-11ee-962d-dac502259ad0.png

這個公式表示了 x 軸上兩個點之間的相對位置。因此,三角函數(shù)可以得到點云之間的絕對和相對位置信息,這更有利于 Point-NN 對局部化點云的結構理解。 2.Point–NN 可以即插即用的提升 Point–PN 的性能嗎?

3c06371c-2609-11ee-962d-dac502259ad0.png

3c466b20-2609-11ee-962d-dac502259ad0.png

如上表所示,Point-NN 對 Point-PN 的提升極其有限,從上圖可視化的結果來看,Point-NN 和 Point-PN 之間的互補性比 Point-NN 和 PointNet++ 之間的互補性更弱。這是因為 Point-PN 的基礎結構是繼承自 Point-NN,因此也會通過三角函數(shù)獲取 3D 高頻信息,和 Point-PN 擁有相似的特征捕獲能力。 3. 和其他無需訓練的 3D 模型的比較

3c825f68-2609-11ee-962d-dac502259ad0.png

現(xiàn)有的 3D 模型中,有一類基于 CLIP 預訓練模型的遷移學習方法,例如 PointCLIP 系列,它們也不需要進行 3D 領域中的訓練過程。從上表的比較可以看出,Point-NN 可以實現(xiàn)很優(yōu)越的無需訓練的分類性能。 4.Point–NN 與 PnP–3D 的增強效果比較

3cbb7b90-2609-11ee-962d-dac502259ad0.png

PnP-3D 提出了一種對于 3D 模型的即插即用的可學習增強模塊,但是它會引入額外的可學習參數(shù),并且需要重新訓練而消耗更多的計算資源。如上表所示,相比之下,Point-NN 也能實現(xiàn)相似的增強性能,但是完全不需要額外參數(shù)或者訓練。 五、總結與展望 本文首次在 3D 領域中,提出了一個無參數(shù)無需訓練的網(wǎng)絡,Point-NN,并且在各個 3D 任務上都取得了良好的性能。我們希望這篇工作可以啟發(fā)更多的研究,來關注非參數(shù)化相關的 3D 研究,而不是一味的增加復雜的 3D 算子或者堆疊大量的網(wǎng)絡參數(shù)。在未來的工作中,我們將探索更加先進的非參數(shù) 3D 模型,并推廣到更廣泛的 3D 應用場景中。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模塊
    +關注

    關注

    7

    文章

    2628

    瀏覽量

    47216
  • 編碼器
    +關注

    關注

    44

    文章

    3554

    瀏覽量

    133804
  • 點云
    +關注

    關注

    0

    文章

    58

    瀏覽量

    3773

原文標題:0參數(shù)量 + 0訓練,3D點云分析方法Point-NN刷新多項SOTA

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于3D的多任務模型在板端實現(xiàn)高效部署

    對于自動駕駛應用來說,3D 場景感知至關重要。3D數(shù)據(jù)就是具有3D特征的數(shù)據(jù)。一方面,3D
    的頭像 發(fā)表于 12-28 16:35 ?1273次閱讀
    基于<b class='flag-5'>3D</b><b class='flag-5'>點</b><b class='flag-5'>云</b>的多任務模型在板端實現(xiàn)高效部署

    基于深度學習的方法在處理3D進行缺陷分類應用

    背景部分介紹了3D應用領域中公開可訪問的數(shù)據(jù)集的重要性,這些數(shù)據(jù)集對于分析和比較各種模型至關重要。研究人員專門設計了各種數(shù)據(jù)集,包括用于3D
    的頭像 發(fā)表于 02-22 16:16 ?895次閱讀
    基于深度學習的<b class='flag-5'>方法</b>在處理<b class='flag-5'>3D</b><b class='flag-5'>點</b><b class='flag-5'>云</b>進行缺陷分類應用

    如何同時獲取2d圖像序列和相應的3d

    如何同時獲取2d圖像序列和相應的3d?以上來自于谷歌翻譯以下為原文How to obtain the sequence of 2d im
    發(fā)表于 11-13 11:25

    3D技術介紹及其與VR體驗的關系

    ;x>nkedIn上發(fā)表了一篇跟澳大利亞科技公司優(yōu)立(Euclideon)所使用的數(shù)據(jù)有關的文章,并在業(yè)內引起了一番討論。 1. 的問題
    發(fā)表于 09-15 09:28 ?20次下載

    問題的介紹及3D技術在VR中的應用

    1. 的問題 是由3D掃描硬件收集的數(shù)據(jù),如FARO的Focus 3D激光掃描儀和Shi
    發(fā)表于 09-27 15:27 ?17次下載

    基于圖卷積的層級圖網(wǎng)絡用于基于3D目標檢測

    論文:A Hierarchical Graph Network for 3D Object Detection on Point Clouds 由于大多數(shù)現(xiàn)有的對象檢測
    的頭像 發(fā)表于 06-21 12:15 ?6145次閱讀
    基于圖卷積的層級圖網(wǎng)絡用于基于<b class='flag-5'>點</b><b class='flag-5'>云</b>的<b class='flag-5'>3D</b>目標檢測

    3D 的無監(jiān)督膠囊網(wǎng)絡 多任務上實現(xiàn)SOTA

    這是一種為 3D 提出的無監(jiān)督膠囊架構,并且在 3D 重構、配準和無監(jiān)督分類方面優(yōu)于
    的頭像 發(fā)表于 01-02 09:39 ?2027次閱讀

    何為3D語義分割

    融合標注使用的3D標注工具仍以3D立體框為主,但在3D數(shù)據(jù)以外,還需要使用2D標注工具在
    的頭像 發(fā)表于 07-21 15:52 ?8434次閱讀

    一種有效將3D分割成平面組件的多分辨率方法

    在實驗中,將改方法與使用 SegComp 數(shù)據(jù)庫的最先進方法進行了比較。實驗結果表明,我們以高幀率和高質量處理 3D 激光和深度傳感器(例如 Kinect)的 3D
    的頭像 發(fā)表于 01-09 11:28 ?977次閱讀

    Point-NN: 即插即用,無需訓練的非參數(shù)分析網(wǎng)絡!

    從PointNet++起,包括最遠點采樣(FPS)、k近鄰(k-NN)和池化操作在內,所有可學習模塊背后的非參數(shù)框架幾乎保持相同。很少有研究去探索它們的療效,論文提出了一個問題
    的頭像 發(fā)表于 03-28 11:22 ?2453次閱讀

    3D數(shù)據(jù)集在3D數(shù)字化技術中的應用

    隨著計算機視覺技術的不斷發(fā)展,3D 數(shù)字化技術已經(jīng)成為了當今工業(yè)制造領域和三維醫(yī)學影像領域的關鍵技術。然而,構建高精度、高分辨率的 3D 數(shù)據(jù)集對于實現(xiàn)這一技術至關重要。在這篇文章
    的頭像 發(fā)表于 05-06 16:46 ?1295次閱讀

    3D相機數(shù)據(jù)“如何讀取”

    Halcon|讀取3D相機數(shù)據(jù) 最近發(fā)現(xiàn)很多小伙伴在使用Halcon處理3D工業(yè)相機掃描結果的時候遇到了“如何讀取”的問題。一般的3D
    的頭像 發(fā)表于 07-12 10:28 ?1476次閱讀
    <b class='flag-5'>3D</b>相機<b class='flag-5'>點</b><b class='flag-5'>云</b>數(shù)據(jù)“如何讀取”

    訓練擴散大模型取得點-圖像配準SoTA!

    現(xiàn)有方法往往是:用一個2D特征提取網(wǎng)絡提取圖像特征;用一個3D特征提取網(wǎng)絡提取特征;然后根據(jù)pixel-to-
    的頭像 發(fā)表于 10-29 17:14 ?747次閱讀
    預<b class='flag-5'>訓練</b>擴散大模型取得點<b class='flag-5'>云</b>-圖像配準<b class='flag-5'>SoTA</b>!

    基于深度學習的3D實例分割方法

    3D實例分割(3DIS)是3D領域深度學習的核心問題。給定由云表示的 3D 場景,我們尋求為每個
    發(fā)表于 11-13 10:34 ?1935次閱讀
    基于深度學習的<b class='flag-5'>3D</b><b class='flag-5'>點</b><b class='flag-5'>云</b>實例分割<b class='flag-5'>方法</b>

    高分工作!Uni3D3D基礎大模型,刷新多個SOTA!

    我們主要探索了3D視覺中scale up模型參數(shù)量和統(tǒng)一模型架構的可能性。在NLP / 2D vision領域,scale up大模型(GPT-4,SAM,EVA等)已經(jīng)取得了很impressive
    的頭像 發(fā)表于 01-30 15:56 ?716次閱讀
    高分工作!Uni<b class='flag-5'>3D</b>:<b class='flag-5'>3D</b>基礎大模型,<b class='flag-5'>刷新</b>多個<b class='flag-5'>SOTA</b>!