自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

超過所有視覺方案!HTCL:分層時間上下文問鼎OCC(ECCV'24)

人工智能 智能汽車
今天為大家分享ECCV2024最新的工作—HTCL!在SemanticKITTI基準測試中超過了所有基于相機的方法,甚至在和OpenOccupancy基準測試中超過了LiDAR!

本文經(jīng)自動駕駛之心公眾號授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

本文是對ECCV2024接受的文章 HTCL: 的介紹,HTCL在SemanticKITTI基準測試中超過了所有基于相機的方法,甚至在和OpenOccupancy基準測試中超過了LiDAR,實現(xiàn)了最先進的性能。代碼已開源,歡迎大家試用和Star~

代碼鏈接:https://github.com/Arlo0o/HTCL
論文鏈接:https://arxiv.org/abs/2407.02077

圖片

Demo video 展示:

圖片

我們對比了同樣采用時序雙目圖像輸入的VoxFormer-T,并用更少的輸入幀數(shù)(3 vs. 4)取得了更好的預(yù)測效果,在場景整體布局、相機視野外區(qū)域、遠距離動態(tài)物體等的預(yù)測中表現(xiàn)出明顯優(yōu)勢。

Motivation

基于相機的三維語義場景補全(SSC)對于從有限的二維圖像觀測中預(yù)測復(fù)雜的三維場景信息至關(guān)重要。現(xiàn)有的主流解決方案通過對歷史幀信息的粗略堆疊來試圖補充當(dāng)前視角下的不完整觀測,這種簡單的時序建模方式不可避免地減少了有效的視覺線索,增加了模型學(xué)習(xí)難度。

圖片

為了解決上述問題,我們提出了HTCL,一種新穎的分層時序上下文學(xué)習(xí)范式,用于改進基于相機的語義場景補全。HTCL將時序上下文學(xué)習(xí)分解為兩個層次步驟:(a)跨幀親和度測量;(b)基于親和度的動態(tài)細化。首先,為了從冗余信息中分離關(guān)鍵相關(guān)上下文,我們提出了尺度感知隔離策略,用于構(gòu)建多個獨立的學(xué)習(xí)模塊,進而建模細粒度上下文對應(yīng)關(guān)系。隨后,為了動態(tài)補償不完整的觀測結(jié)果,我們基于識別出的具有高親和度特征的空間位置及其鄰近的相關(guān)區(qū)域,自適應(yīng)地細化特征采樣位置。

Method

我們提出的分層時序上下文學(xué)習(xí)(HTCL)范式可以有效改進時序特征聚合的可靠性,從而實現(xiàn)精確的三維語義場景補全。HTCL從不同時間幀的RGB圖像中分層地推斷三維語義Occupancy,以實現(xiàn)細粒度的場景理解。如下圖所示,我們提出的分層時時序下文建模包括兩個順序步驟:(1)顯式地測量當(dāng)前幀和歷史幀之間的上下文特征親和力,提取最相關(guān)的高親和度特征;(2)基于高親和力特征的空間位置及其附近的相關(guān)上下文自適應(yīng)地細化采樣位置,以動態(tài)補償不完整的觀測。HTCL在創(chuàng)新性方面主要做出了以下貢獻:

  • 提出了一種時序上下文學(xué)習(xí)范式,以用于動態(tài)和可靠的三維語義場景補全。
  • 提出了一種具有尺度感知隔離和多個獨立學(xué)習(xí)模塊的親和度測量策略,用于細粒度的上下文對應(yīng)關(guān)系建模。
  • 提出了一個基于親和度的動態(tài)細化方案,以重新分配時序上下文信息,并自適應(yīng)地補償不完整的觀測結(jié)果。
  • HTCL在SemanticKITTI基準測試中超過了所有基于相機的方法,甚至在和OpenOccupancy基準測試中超過了LiDAR,實現(xiàn)了最先進的性能。

圖片

如上圖所示,我們提出的方法整體框架主要由三個部分組成:Aligned Temporal Volume Construction,Voxel Feature Volume Construction,以及Reliable Temporal Aggregation。

效果如下圖所示,跨幀模式親和(CPA)有效地表示了時間內(nèi)容中的上下文對應(yīng)關(guān)系。

圖片

鑒于我們的目標是完成并理解與當(dāng)前幀相對應(yīng)的三維場景,因此必須為最相關(guān)的位置分配更大的權(quán)重,同時也需要調(diào)查其鄰近的相關(guān)區(qū)域以彌補不完整的觀察結(jié)果。為此,我們提出基于親和力的動態(tài)細化(ADR),根據(jù)已確定的高親和性位置及其鄰近相關(guān)區(qū)域,用三維可變形卷積自適應(yīng)地改進特征采樣位置。具體來說,我們通過引入基于親和力的對應(yīng)權(quán)重和可變形位置偏移來實現(xiàn)動態(tài)細化:

為了進一步通過分層上下文推理動態(tài)建模,我們通過考慮級聯(lián)的不同特征層上下文信息 :

Experiment

實驗表明,我們的方法在SemanticKITTI Benchmark上排名第一,并在OpenOccupancy BenchMark中取得了超過基于LiDAR方法的mIoU。

  • 定量實驗結(jié)果:

圖片

在SemanticKITTI基準測試中,我們提出的方法明顯優(yōu)于所有其他方法。與VoxFomer-T相比,我們的方法即使在較少的歷史輸入(3 vs. 4)中也取得了顯著的相對增益。在OpenOccupancy基準測試中,盡管基于LiDAR的在IoU方面具有固有的優(yōu)勢,但我們的HTCL在mIoU方面超過了所有其他方法(包括基于LiDAR的LMSCNet和JS3C-Net ),證明了我們的方法在語義場景補全方面的有效性。

  • 定性試驗結(jié)果:

圖片

圖5展示了我們提出的方法與VoxFormer在SemanticKITTI上的定性比較??梢杂^察到,真實世界的場景非常復(fù)雜,而注釋的地面實況相對稀少,這給從有限的視覺線索中完全重建語義場景帶來了挑戰(zhàn)。與 VoxFormer 相比,我們的方法能捕捉到更完整、更準確的場景布局(如第二行和第三行的十字路口)。此外,我們的方法還能有效地補全攝像機視野外更多合適的景物(如第一行和第二行中的陰影區(qū)域),并在移動物體(如第二行中的卡車)方面表現(xiàn)出明顯的優(yōu)勢。圖6展示了我們的方法在 OpenOccupancy 上的預(yù)測結(jié)果,我們提出的方法與GT相比,可以生成的結(jié)果更密集、更真實的Semantic Occupancy。

責(zé)任編輯:張燕妮 來源: 自動駕駛之心
相關(guān)推薦

2017-05-11 14:00:02

Flask請求上下文應(yīng)用上下文

2022-09-05 08:02:10

上下文切換服務(wù)器

2022-05-03 21:01:10

架構(gòu)項目映射

2012-12-31 10:01:34

SELinuxSELinux安全

2022-09-14 13:13:51

JavaScript上下文

2022-09-15 08:01:14

繼承基礎(chǔ)設(shè)施基礎(chǔ)服務(wù)

2023-07-11 10:02:23

2024-09-30 14:10:00

2017-12-17 17:01:23

限界上下文系統(tǒng)模型

2022-10-28 16:24:33

Context上下文鴻蒙

2025-03-18 08:14:05

2020-07-24 10:00:00

JavaScript執(zhí)行上下文前端

2021-07-26 07:47:36

Cpu上下文進程

2023-10-23 13:23:03

數(shù)據(jù)訓(xùn)練

2025-02-14 10:56:58

2023-07-09 15:09:18

機器學(xué)習(xí)能力

2010-02-25 17:04:54

WCF實例上下文

2019-05-06 14:36:48

CPULinux寄存器

2022-04-24 15:37:26

LinuxCPU

2025-04-07 01:02:00

GoAPI語言
點贊
收藏

51CTO技術(shù)棧公眾號