自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

CVPR'24 | LightDiff:低光照場景下的擴散模型,直接照亮夜晚!

人工智能 智能汽車
本文介紹了 LightDiff ,這是一個為自動駕駛應(yīng)用設(shè)計的、針對特定領(lǐng)域的框架,旨在提高低光照環(huán)境下圖像的質(zhì)量,減輕以視覺為中心的感知系統(tǒng)所面臨的挑戰(zhàn)。

本文經(jīng)自動駕駛之心公眾號授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

原標(biāo)題:Light the Night: A Multi-Condition Diffusion Framework for Unpaired Low-Light Enhancement in Autonomous Driving

論文鏈接:https://arxiv.org/pdf/2404.04804.pdf

作者單位:克利夫蘭州立大學(xué) 德克薩斯大學(xué)奧斯汀分校 A*STAR 紐約大學(xué) 加州大學(xué)洛杉磯分校

圖片

論文思路:

自動駕駛的視覺中心感知系統(tǒng)由于其成本效益和可擴展性,特別是與激光雷達(dá)系統(tǒng)相比,最近受到了相當(dāng)多的關(guān)注。然而,這些系統(tǒng)在低光照條件下常常會遇到困難,可能會影響其性能和安全性。為了解決這個問題,本文介紹了LightDiff ,這是一個為自動駕駛應(yīng)用中提升低光照圖像質(zhì)量而設(shè)計的定制化框架。具體來說,本文采用了一個多條件控制的擴散模型。LightDiff 無需人工收集的成對數(shù)據(jù),而是利用動態(tài)數(shù)據(jù)退化過程(dynamic data degradation process)。它結(jié)合了一個新穎的多條件適配器(multi-condition adapter),該適配器能夠自適應(yīng)地控制來自不同模態(tài)的輸入權(quán)重,包括深度圖、RGB圖像和文本標(biāo)題,以有效地照亮黑暗場景的同時保持內(nèi)容的一致性。此外,為了使增強的圖像與檢測模型的知識相匹配,LightDiff 使用特定于感知的評分作為獎勵,通過強化學(xué)習(xí)指導(dǎo)擴散訓(xùn)練過程。在 nuScenes 數(shù)據(jù)集上進(jìn)行的廣泛實驗表明,LightDiff 能夠顯著提高多個最新的3D檢測器在夜間條件下的性能,同時實現(xiàn)高視覺質(zhì)量評分,凸顯了其在保障自動駕駛安全方面的潛力。

主要貢獻(xiàn):

? 本文提出了 Lighting Diffusion (LightDiff) 模型,以增強自動駕駛中的低光照相機圖像,減少了對大量夜間數(shù)據(jù)收集的需求,并保持了白天的性能。

? 本文整合了包括深度圖和圖像標(biāo)題在內(nèi)的多種輸入模態(tài),并提出了一個多條件適配器,以確保圖像轉(zhuǎn)換中的語義完整性,同時保持高視覺質(zhì)量。本文采用了一種實用的過程,從白天數(shù)據(jù)生成晝夜圖像對,以實現(xiàn)高效的模型訓(xùn)練。

? 本文為 LightDiff 提出了一種使用強化學(xué)習(xí)的微調(diào)機制,結(jié)合了為感知定制的領(lǐng)域知識(可信的激光雷達(dá)和統(tǒng)計分布的一致性),以確保擴散過程既有利于人類視覺感知,也有利于感知模型。

? 在 nuScenes 數(shù)據(jù)集上進(jìn)行的廣泛實驗表明,LightDiff  顯著提高了夜間3D車輛檢測的性能,并在多個視覺指標(biāo)上超越了其他生成模型。

網(wǎng)絡(luò)設(shè)計:

圖片

圖1。夜間駕駛場景比白天更具有致命威脅。夜間的致命率要高得多[4]。本文旨在增強夜間圖像,以提高夜間駕駛的整體安全性。

如圖1所示,夜間駕駛對于人類來說是具有挑戰(zhàn)性的,對于自動駕駛汽車來說更是如此。2018年3月18日,一起災(zāi)難性的事件突顯了這一挑戰(zhàn),當(dāng)時 Uber Advanced Technologies Group 的一輛自動駕駛汽車在亞利桑那州撞擊并致死了一名行人[37]。這起事件是由于車輛未能在低光照條件下準(zhǔn)確檢測到行人而引起的,它將自動駕駛汽車的安全問題推到了前沿,尤其是在這樣要求苛刻的環(huán)境中。隨著以視覺為中心的自動駕駛系統(tǒng)越來越多地依賴于相機傳感器,解決低光照條件下的安全隱患已經(jīng)變得越來越關(guān)鍵,以確保這些車輛的整體安全。

一種直觀的解決方案是收集大量的夜間駕駛數(shù)據(jù)。然而,這種方法不僅勞動密集、成本高昂,而且由于夜間與白天圖像分布的差異,還有可能損害白天模型的性能。為了應(yīng)對這些挑戰(zhàn),本文提出了 Lighting Diffusion (LightDiff )模型,這是一種新穎的方法,它消除了手動數(shù)據(jù)收集的需求,并保持了白天模型的性能。

LightDiff 的目標(biāo)是增強低光照相機圖像,提高感知模型的性能。通過使用動態(tài)的低光照衰減過程,LightDiff 從現(xiàn)有的白天數(shù)據(jù)生成合成的晝夜圖像對進(jìn)行訓(xùn)練。接著,本文采用了 Stable Diffusion [44]技術(shù),因為它能夠產(chǎn)生高質(zhì)量的視覺效果,有效地將夜間場景轉(zhuǎn)換成白天的等效物。然而,在自動駕駛中保持語義一致性至關(guān)重要,這是原始 Stable Diffusion 模型面臨的一個挑戰(zhàn)。為了克服這一點,LightDiff 結(jié)合了多種輸入模態(tài),例如估計的深度圖和相機圖像標(biāo)題,配合一個多條件適配器。這個適配器智能地確定每種輸入模態(tài)的權(quán)重,確保轉(zhuǎn)換圖像的語義完整性,同時保持高視覺質(zhì)量。為了引導(dǎo)擴散過程不僅朝著對人類視覺更亮的方向,而且對感知模型也是如此,本文進(jìn)一步使用強化學(xué)習(xí)對本文的 LightDiff 進(jìn)行微調(diào),循環(huán)中加入了為感知量身定制的領(lǐng)域知識。本文在自動駕駛數(shù)據(jù)集nuScenes [7]上進(jìn)行了廣泛的實驗,并證明了本文的 LightDiff 可以顯著提高夜間3D車輛檢測的平均精度(AP),分別為兩個最先進(jìn)模型BEVDepth [32]和BEVStereo [31]提高了4.2%和4.6%。

圖片

圖2. 本文的 Lighting Diffusion 模型(LightDiff )的架構(gòu)。在訓(xùn)練階段,一個訓(xùn)練數(shù)據(jù)生成流程使得無需任何人工收集的配對數(shù)據(jù)就能獲取三模態(tài)數(shù)據(jù)。本文的 LightDiff 使用了一個多條件適配器來動態(tài)加權(quán)多種條件,結(jié)合激光雷達(dá)和分布獎勵建模(LDRM),允許以感知為導(dǎo)向的控制。

圖片

圖3. 本文的訓(xùn)練數(shù)據(jù)生成流程。低光照退化轉(zhuǎn)換[9]僅在訓(xùn)練階段實施。訓(xùn)練好的深度估計網(wǎng)絡(luò)將被凍結(jié),用于本文 Lighting Diffusion 模型的訓(xùn)練和測試階段。

圖片

圖4. 循環(huán)照明推理(Recurrent Lighting Inference)的示意圖。其設(shè)計旨在提高生成文本提示和深度圖的精確度,從而減輕對暗圖像的不利影響。

實驗結(jié)果:

圖片

圖5. 在 nuScenes 驗證集中的夜間圖像示例上的視覺對比。

圖片

圖6. 在 nuScenes 驗證集中的夜間圖像示例上的三維檢測結(jié)果可視化。本文使用 BEVDepth [32] 作為三維檢測器,并可視化相機的正視圖和鳥瞰圖(Bird’s-Eye-View)。

圖片

圖7. 展示本文的 LightDiff  在有無多條件適配器(MultiCondition Adapter)的情況下的視覺效果。ControlNet [55]的輸入保持一致,包括相同的文本提示和深度圖。多條件適配器在增強過程中實現(xiàn)了更好的顏色對比和更豐富的細(xì)節(jié)。

圖片

圖8. 不同模態(tài)輸入的注意力圖示例。

圖片

圖9. 通過循環(huán)照明推理(Recurrent Lighting Inference, ReLI)增強多模態(tài)生成的示意圖。通過調(diào)用一次 ReLI,提高了文本提示和深度圖預(yù)測的準(zhǔn)確性。

圖片圖片圖片圖片

總結(jié):

本文介紹了 LightDiff ,這是一個為自動駕駛應(yīng)用設(shè)計的、針對特定領(lǐng)域的框架,旨在提高低光照環(huán)境下圖像的質(zhì)量,減輕以視覺為中心的感知系統(tǒng)所面臨的挑戰(zhàn)。通過利用動態(tài)數(shù)據(jù)退化過程(dynamic data degradation process)、針對不同輸入模態(tài)的多條件適配器,以及使用強化學(xué)習(xí)的感知特定評分引導(dǎo)獎勵建模,LightDiff  顯著提升了 nuScenes 數(shù)據(jù)集夜間的圖像質(zhì)量和3D車輛檢測性能。這一創(chuàng)新不僅消除了對大量夜間數(shù)據(jù)的需求,還確保了圖像轉(zhuǎn)換中的語義完整性,展示了其在提高自動駕駛場景中的安全性和可靠性方面的潛力。在沒有現(xiàn)實的成對晝夜圖像的情況下,合成帶有車燈的暗淡駕駛圖像是相當(dāng)困難的,這限制了該領(lǐng)域的研究。未來的研究可以集中在更好地收集或生成高質(zhì)量訓(xùn)練數(shù)據(jù)上。

引用:

@ARTICLE{2024arXiv240404804L,
author = {{Li}, Jinlong and {Li}, Baolu and {Tu}, Zhengzhong and {Liu}, Xinyu and {Guo}, Qing and {Juefei-Xu}, Felix and {Xu}, Runsheng and {Yu}, Hongkai},
title = "{Light the Night: A Multi-Condition Diffusion Framework for Unpaired Low-Light Enhancement in Autonomous Driving}",
journal = {arXiv e-prints},
keywords = {Computer Science - Computer Vision and Pattern Recognition},
year = 2024,
month = apr,
eid = {arXiv:2404.04804},
pages = {arXiv:2404.04804},
doi = {10.48550/arXiv.2404.04804},
archivePrefix = {arXiv},
eprint = {2404.04804},
primaryClass = {cs.CV},
adsurl = {https://ui.adsabs.harvard.edu/abs/2024arXiv240404804L},
adsnote = {Provided by the SAO/NASA Astrophysics Data System}
}

責(zé)任編輯:張燕妮 來源: 自動駕駛之心
相關(guān)推薦

2024-04-24 11:29:54

模型雷達(dá)

2025-04-08 09:30:00

模型AI機器人

2023-05-22 09:22:41

論文CV

2025-02-11 10:01:19

2011-08-10 17:00:55

威盛科技

2024-05-10 07:58:03

2025-04-24 09:38:00

3D模型AI

2024-11-05 14:25:00

AI模型

2024-04-26 12:51:48

2023-02-08 10:48:02

2024-06-05 16:22:11

2024-03-27 10:20:31

模型場景

2025-03-25 09:04:12

2013-01-29 09:29:34

影子IT公有云計算云服務(wù)

2024-10-29 09:24:59

2024-10-23 15:13:35

2024-12-05 12:22:43

2024-01-07 20:20:46

2023-04-03 11:01:26

低代碼平臺場景
點贊
收藏

51CTO技術(shù)棧公眾號