自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

預(yù)測(cè)誤差降低12.3%,多車協(xié)同預(yù)測(cè)框架CMP,破解自動(dòng)駕駛「視線盲區(qū)」

人工智能 新聞
CMP 通過(guò)感知 - 預(yù)測(cè) - 聚合全鏈路協(xié)同,在通信效率、延遲魯棒性、預(yù)測(cè)精度三大維度實(shí)現(xiàn)突破,為復(fù)雜動(dòng)態(tài)場(chǎng)景下的自動(dòng)駕駛提供了可靠技術(shù)方案。

2025 年 3 月,加州大學(xué)河濱分校與密歇根大學(xué)、加州大學(xué)伯克利分校以及華盛頓大學(xué)聯(lián)合團(tuán)隊(duì)在機(jī)器人領(lǐng)域頂級(jí)期刊《IEEE Robotics and Automation Letters》發(fā)表最新研究成果 ——CMP(Cooperative Motion Prediction),首次提出一種面向車聯(lián)網(wǎng)(V2X)的協(xié)同運(yùn)動(dòng)預(yù)測(cè)框架,通過(guò)多車信息共享與融合,顯著提升自動(dòng)駕駛車輛的軌跡預(yù)測(cè)精度與場(chǎng)景適應(yīng)能力。該技術(shù)已在真實(shí)場(chǎng)景數(shù)據(jù)集 V2V4Real 和仿真平臺(tái) OPV2V 中驗(yàn)證其高效性,相比現(xiàn)有最優(yōu)模型,預(yù)測(cè)誤差降低 12.3%,為復(fù)雜交通環(huán)境下的自動(dòng)駕駛安全決策提供了全新解決方案。

圖片

  • 論文標(biāo)題:CMP: Cooperative Motion Prediction with Multi-Agent Communication
  • 論文鏈接:https://arxiv.org/pdf/2403.17916
  • 項(xiàng)目網(wǎng)站:https://cmp-cooperative-prediction.github.io
  • 代碼開(kāi)源:https://github.com/tasl-lab/CMP

技術(shù)亮點(diǎn):感知 - 預(yù)測(cè)一體化協(xié)同,破解自動(dòng)駕駛 “視線盲區(qū)”

傳統(tǒng)自動(dòng)駕駛系統(tǒng)依賴單車傳感器,易受遮擋或極端天氣影響,導(dǎo)致感知與預(yù)測(cè)能力受限。CMP 通過(guò)多車協(xié)同感知與預(yù)測(cè)的深度融合,打破單車信息孤島,實(shí)現(xiàn) “全局視野” 與 “動(dòng)態(tài)推理” 的雙重突破:

1. 高效協(xié)同感知

  • LiDAR 數(shù)據(jù)共享與壓縮:利用 256 倍壓縮率的鳥(niǎo)瞰圖(BEV)特征傳輸,帶寬需求從 82.5 MB/s 降至 0.32 MB/s,兼顧通信效率與感知精度。
  • 延遲魯棒性:支持 100ms 內(nèi)通信延遲,通過(guò)時(shí)空對(duì)齊與多幀同步處理,確保數(shù)據(jù)在動(dòng)態(tài)場(chǎng)景下的有效性。

2. 動(dòng)態(tài)軌跡預(yù)測(cè)

  • 多模態(tài)預(yù)測(cè)解碼器:基于 Transformer 架構(gòu),結(jié)合高斯混合模型(GMM),生成多樣化的未來(lái)軌跡假設(shè),覆蓋車輛轉(zhuǎn)向、避讓等多種行為模式。
  • 實(shí)時(shí)預(yù)測(cè)聚合:通過(guò)注意力機(jī)制動(dòng)態(tài)整合多車預(yù)測(cè)結(jié)果,優(yōu)先采納鄰近車輛的可靠預(yù)測(cè),進(jìn)一步提升長(zhǎng)時(shí)預(yù)測(cè)(5 秒)的準(zhǔn)確性。

一.研究背景

自動(dòng)駕駛技術(shù)的核心在于對(duì)環(huán)境的精準(zhǔn)感知與未來(lái)軌跡的可靠預(yù)測(cè)。然而,傳統(tǒng)系統(tǒng)依賴單車傳感器(如 LiDAR、攝像頭),存在視野受限、易受遮擋的固有缺陷 —— 例如,城市路口被建筑物遮擋的車輛、高速場(chǎng)景中的突然切入目標(biāo),僅憑單車感知極易出現(xiàn)漏檢或誤判,導(dǎo)致決策延遲甚至安全事故。為突破這一限制,協(xié)同感知(Cooperative Perception)應(yīng)運(yùn)而生。通過(guò)車聯(lián)網(wǎng)(V2X)技術(shù),車輛可共享傳感器數(shù)據(jù),構(gòu)建全局環(huán)境認(rèn)知。現(xiàn)有研究(如 V2VNet、CoBEVT)已證明,多車協(xié)同能顯著提升目標(biāo)檢測(cè)精度,但這類工作多局限于感知層的信息融合,未深入挖掘協(xié)同數(shù)據(jù)對(duì)運(yùn)動(dòng)預(yù)測(cè)的價(jià)值。與此同時(shí),單車軌跡預(yù)測(cè)模型如 MTR,并未考慮多車交互,協(xié)同預(yù)測(cè)。在此背景下,CMP(Cooperative Motion Prediction)應(yīng)勢(shì)而生。作為首個(gè)感知 - 預(yù)測(cè)一體化協(xié)同框架,CMP 不僅通過(guò)高效 BEV 特征共享與壓縮技術(shù)擴(kuò)展感知邊界,更創(chuàng)新性地引入預(yù)測(cè)聚合模塊,動(dòng)態(tài)融合多車預(yù)測(cè)結(jié)果,在真實(shí)通信約束下實(shí)現(xiàn) “全局感知 - 精準(zhǔn)預(yù)測(cè) - 協(xié)同決策” 的閉環(huán),為復(fù)雜動(dòng)態(tài)場(chǎng)景中的自動(dòng)駕駛安全樹(shù)立新標(biāo)桿。

二.研究方法:感知 - 預(yù)測(cè) - 聚合三階協(xié)同框架

圖片

CMP 以多車協(xié)同感知為基礎(chǔ)、動(dòng)態(tài)軌跡預(yù)測(cè)為核心、預(yù)測(cè)聚合優(yōu)化為閉環(huán),構(gòu)建了一套完整的三階協(xié)同框架,其技術(shù)路徑如下:

1. 協(xié)同感知:多車 LiDAR 數(shù)據(jù)的高效融合

目標(biāo):突破單車感知盲區(qū),構(gòu)建全局環(huán)境表征。

  • BEV 特征提取與壓縮:

采用改進(jìn)版 CoBEVT 作為骨干網(wǎng)絡(luò),將每輛車的 LiDAR 點(diǎn)云轉(zhuǎn)換為鳥(niǎo)瞰圖(BEV)特征(分辨率 0.4m×0.4m),通過(guò)卷積自編碼器進(jìn)行 256 倍壓縮,帶寬需求從 82.5 MB/s 降至 0.32 MB/s,滿足車規(guī)級(jí)通信要求。

  • 時(shí)空對(duì)齊與延遲補(bǔ)償:

基于 GPS 同步時(shí)鐘,設(shè)計(jì) 100ms 通信窗口,通過(guò)可微分空間變換算子(STO)對(duì)齊多車坐標(biāo)系,動(dòng)態(tài)丟棄超時(shí)數(shù)據(jù),解決車輛運(yùn)動(dòng)與通信延遲導(dǎo)致的特征錯(cuò)位問(wèn)題。

  • 跨車特征融合:

利用 FuseBEVT 模塊聚合多車 BEV 特征,結(jié)合輕量化檢測(cè)頭輸出 3D 目標(biāo)框,檢測(cè)精度(AP@0.7)達(dá) 0.82,較單車間步長(zhǎng)提升 24%。

  • 多物體跟蹤:

對(duì)于檢測(cè)出的物體,場(chǎng)景中每一臺(tái) CAV 獨(dú)自使用基于 AB3DMOT 的跟蹤算法進(jìn)行跟蹤。

2. 軌跡預(yù)測(cè):多模態(tài) Transformer 解碼器

目標(biāo):基于歷史軌跡與場(chǎng)景上下文,生成多樣化的未來(lái)軌跡假設(shè)。

  • 場(chǎng)景編碼與意圖建模:

引入 MTR 模型框架,通過(guò) Polyline 編碼器提取車輛軌跡特征,ViT 編碼器提取高精地圖語(yǔ)義,結(jié)合 Transformer 融合局部交互與全局意圖。

  • 動(dòng)態(tài)意圖點(diǎn)聚類:

采用 k-means 對(duì)歷史軌跡終點(diǎn)聚類,生成 64 個(gè)意圖點(diǎn)(Intention Points),表征轉(zhuǎn)向、直行、停車等多模態(tài)目標(biāo)。

  • 高斯混合軌跡生成:

通過(guò) Transformer 解碼器迭代優(yōu)化軌跡,輸出高斯混合模型(GMM)參數(shù),覆蓋未來(lái) 5 秒內(nèi)位置分布(均值 μ、方差 σ、相關(guān)性 ρ),支持概率化多模態(tài)預(yù)測(cè)。

3. 預(yù)測(cè)聚合:注意力驅(qū)動(dòng)的協(xié)同優(yōu)化

目標(biāo):整合多車預(yù)測(cè)結(jié)果,抑制單視角誤差,提升全局一致性。

  • 跨車預(yù)測(cè)對(duì)齊:

將各車的 GMM 參數(shù)、局部地圖與 BEV 特征拼接為統(tǒng)一輸入,通過(guò) MLP 編碼為聯(lián)合特征向量。

  • 多層注意力融合:

設(shè)計(jì) 8 頭 - 5 層 Transformer 架構(gòu),動(dòng)態(tài)加權(quán)多車預(yù)測(cè)置信度(如鄰近車輛預(yù)測(cè)權(quán)重更高),自適應(yīng)補(bǔ)償通信丟包或遮擋導(dǎo)致的預(yù)測(cè)缺失。

  • 端到端聯(lián)合訓(xùn)練:

采用多任務(wù)損失函數(shù),同步優(yōu)化檢測(cè)(Focal Loss + L1 Loss)、預(yù)測(cè)(NLL + L2 Loss)與聚合模塊,避免誤差跨階段累積。

技術(shù)對(duì)比:CMP 的創(chuàng)新突破

圖片

CMP 通過(guò)感知 - 預(yù)測(cè)聯(lián)合建模與輕量化通信設(shè)計(jì),首次在真實(shí)車聯(lián)網(wǎng)約束下實(shí)現(xiàn)多車協(xié)同運(yùn)動(dòng)預(yù)測(cè),為復(fù)雜動(dòng)態(tài)場(chǎng)景的自動(dòng)駕駛決策提供了可靠技術(shù)底座。

三.實(shí)驗(yàn)結(jié)果和分析:協(xié)同驅(qū)動(dòng)預(yù)測(cè)精度全面突破

CMP 在 OPV2V(仿真)與 V2V4Real(真實(shí)場(chǎng)景)兩大數(shù)據(jù)集上進(jìn)行了系統(tǒng)性驗(yàn)證,涵蓋感知、跟蹤、預(yù)測(cè)全鏈路性能評(píng)估,并與 V2VNet、CoBEVT 等前沿模型對(duì)比,核心結(jié)論如下:

1. 運(yùn)動(dòng)預(yù)測(cè):長(zhǎng)時(shí)誤差降低 19%

在 5 秒長(zhǎng)時(shí)預(yù)測(cè)任務(wù)中,CMP 憑借協(xié)同感知 - 預(yù)測(cè)聯(lián)合優(yōu)化,顯著優(yōu)于現(xiàn)有方案 V2VNet:

圖片

圖片

圖片

關(guān)鍵發(fā)現(xiàn):

  • 協(xié)同感知貢獻(xiàn)顯著:僅啟用協(xié)同感知(不疊加預(yù)測(cè)聚合),預(yù)測(cè)誤差較無(wú)協(xié)同降低 10%-15%,證明多車數(shù)據(jù)融合可有效擴(kuò)展感知邊界。
  • 預(yù)測(cè)聚合增益突出:引入跨車預(yù)測(cè)聚合模塊后,誤差進(jìn)一步降低 5%-8%,凸顯多視角預(yù)測(cè)互補(bǔ)的價(jià)值。
  • 真實(shí)場(chǎng)景優(yōu)勢(shì)更大:V2V4Real 中 CMP 的 minFDE?相對(duì)提升達(dá) 19%,表明其對(duì)遮擋、復(fù)雜交互的強(qiáng)適應(yīng)能力。
  • 大范圍場(chǎng)景效果更明顯:進(jìn)一步根據(jù) CAV 在場(chǎng)景中的散布顯示,隨著協(xié)同車輛覆蓋區(qū)域擴(kuò)大(>200 m2),CMP 的預(yù)測(cè)精度提升高達(dá) 28.4%,充分驗(yàn)證其在大范圍復(fù)雜場(chǎng)景中的優(yōu)勢(shì)。

2. 感知與跟蹤:高壓縮率下的精度保持

CMP 在保證通信效率的同時(shí),維持了高精度感知與穩(wěn)定跟蹤:

圖片

關(guān)鍵發(fā)現(xiàn):

  • 高效壓縮可行性:256 倍 BEV 特征壓縮幾乎不會(huì)導(dǎo)致檢測(cè)精度下降,驗(yàn)證輕量化通信設(shè)計(jì)的有效性。
  • 跟蹤魯棒性提升:多車協(xié)同減少漏檢與 ID 切換,MOTA 提升 15%-25%,為長(zhǎng)時(shí)預(yù)測(cè)提供更完整的歷史軌跡輸入。

3. 通信效率與延遲魯棒性

圖片

CMP 在真實(shí)通信約束下仍保持穩(wěn)定性能:

  • 計(jì)算速度:CMP 中所有計(jì)算部分可以在 100ms 完成,符合業(yè)界無(wú)人駕駛需求。
  • 帶寬需求:?jiǎn)诬囬g BEV 傳輸帶寬從 82.5 MB/s(原始)降至 0.32 MB/s(256× 壓縮),支持 10 車協(xié)同場(chǎng)景實(shí)時(shí)通信。

4. 可視化分析:遮擋場(chǎng)景預(yù)測(cè)優(yōu)勢(shì)

如圖所示,單車(紅色)感知因視野受限漏檢右側(cè)車輛,導(dǎo)致缺少對(duì)于一些車輛的軌跡。而 CMP 通過(guò)協(xié)同感知補(bǔ)全被遮擋目標(biāo),且預(yù)測(cè)軌跡與真值高度吻合。

圖片

四.總結(jié):協(xié)同預(yù)測(cè)開(kāi)啟自動(dòng)駕駛新范式

CMP 通過(guò)感知 - 預(yù)測(cè) - 聚合全鏈路協(xié)同,在通信效率、延遲魯棒性、預(yù)測(cè)精度三大維度實(shí)現(xiàn)突破,為復(fù)雜動(dòng)態(tài)場(chǎng)景下的自動(dòng)駕駛提供了可靠技術(shù)方案。未來(lái),團(tuán)隊(duì)將進(jìn)一步探索端到端可微分架構(gòu)與多模態(tài)融合,推動(dòng)協(xié)同自動(dòng)駕駛邁向更高階智能。隨著 V2X 技術(shù)的普及,CMP 有望成為下一代自動(dòng)駕駛系統(tǒng)的核心模塊,為智慧交通與無(wú)人駕駛規(guī)?;涞氐於夹g(shù)基石。

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2023-08-08 12:12:07

自動(dòng)駕駛預(yù)測(cè)

2023-07-27 09:45:39

自動(dòng)駕駛技術(shù)

2022-02-07 16:11:39

自動(dòng)駕駛汽車安全

2023-12-04 09:33:00

自動(dòng)駕駛視覺(jué)

2021-12-30 10:53:01

自動(dòng)駕駛毫末智行

2025-02-26 10:17:43

2020-12-22 19:14:12

5G自動(dòng)駕駛智能

2024-02-20 09:42:36

自動(dòng)駕駛預(yù)測(cè)

2023-03-09 10:06:47

自動(dòng)駕駛

2023-03-15 11:54:32

無(wú)人駕駛系統(tǒng)

2023-02-08 11:04:59

自動(dòng)駕駛系統(tǒng)

2024-10-15 09:40:00

自動(dòng)駕駛AI

2022-12-09 10:04:20

自動(dòng)駕駛技術(shù)

2024-08-20 08:42:33

自動(dòng)駕駛算法

2024-02-27 15:08:04

自動(dòng)駕駛技術(shù)

2023-07-17 11:27:56

2022-06-17 11:10:28

5G自動(dòng)駕駛技術(shù)

2020-10-19 08:15:23

自動(dòng)駕駛模型人工智能

2023-11-20 09:53:13

自動(dòng)駕駛系統(tǒng)

2019-02-23 14:46:54

馬斯克自動(dòng)駕駛無(wú)人駕駛
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)