自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

淺析基于深度卷積網(wǎng)絡(luò)的自動駕駛多模態(tài)軌跡預(yù)測

人工智能 無人駕駛 智能汽車
為了安全高效地在道路上行駛,自動駕駛汽車必須具有像人類駕駛員一樣預(yù)測周圍交通參與者行為的能力。這篇文章主要解決軌跡預(yù)測的一個難點,即預(yù)測的多模態(tài)。

?為了安全高效地在道路上行駛,自動駕駛汽車必須具有像人類駕駛員一樣預(yù)測周圍交通參與者行為的能力。目前,軌跡預(yù)測的相關(guān)研究受到了越來越多的重視。這篇文章主要解決軌跡預(yù)測的一個難點,即預(yù)測的多模態(tài)。同時,這篇文章的另一個亮點是通過卷積光柵圖像來實現(xiàn)預(yù)測。作者通過實驗得到了目前最優(yōu)的預(yù)測效果。這篇文章對軌跡預(yù)測相關(guān)領(lǐng)域的研究具有一定的學(xué)習(xí)和參考價值。

無論是在難度還是潛在的社會影響方面,自動駕駛是目前人工智能領(lǐng)域面臨的最大問題之一。自動駕駛車輛(SDVs)有望在改善更多人的生活質(zhì)量的同時,減少道路事故,挽救數(shù)百萬人的生命。然而,盡管有大量的關(guān)注和在自動駕駛領(lǐng)域工作的行業(yè)參與者,為了開發(fā)一個能與最好的人類駕駛員操作水平相當(dāng)?shù)南到y(tǒng),仍有許多工作要做。其中一個原因是交通行為的高度不確定性以及SDV在道路上可能遇到的大量情況,使得很難創(chuàng)建一個完全通用的系統(tǒng)。為了確保安全和高效的運行,自動駕駛車輛需要考慮到這種不確定性,并預(yù)測周圍交通參與者的多種可能行為。我們解決了這個關(guān)鍵問題,并提出了一種方法來預(yù)測多個可能的軌跡,同時估計它們的概率。該方法將每個參與者的周圍環(huán)境編碼成一個光柵圖像,作為深度卷積網(wǎng)絡(luò)的輸入,以自動獲得任務(wù)的相關(guān)特征。經(jīng)過大量的離線評估和與最新基準(zhǔn)的比較,該方法成功地在SDVs上完成了封閉道路測試。近年來,人工智能(AI)應(yīng)用領(lǐng)域取得了前所未有的進(jìn)展,智能算法迅速成為我們?nèi)粘I钪胁豢苫蛉钡囊徊糠?。舉幾個影響了數(shù)百萬人的例子:醫(yī)院使用人工智能方法來幫助診斷疾病[1],婚介服務(wù)使用學(xué)習(xí)的模型來連接潛在的夫婦[2],而社交媒體訂閱源則通過算法[3]來構(gòu)建。盡管如此,人工智能革命仍遠(yuǎn)未結(jié)束,并有可能在未來幾年進(jìn)一步加速。有趣的是,汽車領(lǐng)域是主要的產(chǎn)業(yè)之一,目前為止人工智能的應(yīng)用還很有限。大型汽車制造商通過在高級駕駛輔助系統(tǒng)(ADAS)中使用人工智能(AI)取得了一些進(jìn)展[5],然而,它的全部能力仍有待通過新的智能技術(shù)的出現(xiàn)加以利用,例如自動駕駛汽車(SDVs)。盡管駕駛車輛對許多人來說是很平常的活動,但也是一項危險任務(wù),甚至對于有幾年經(jīng)驗的人類駕駛員來說也是如此[6]。雖然汽車制造商正努力通過更好的設(shè)計和ADAS系統(tǒng)來提高汽車安全性,但年復(fù)一年的統(tǒng)計數(shù)據(jù)表明,仍有許多工作要做來扭轉(zhuǎn)公共道路上的負(fù)面趨勢。尤其是2015年美國的車禍死亡人數(shù)占總死亡人數(shù)的5%以上[7],絕大多數(shù)車禍都是人為因素造成的[8]。不幸的是,這并不是最近才出現(xiàn)的問題,幾十年來,研究人員一直在試圖了解其原因。研究包括調(diào)查司機分心的影響[9]、酒精和毒品使用[10]、[11]和司機年齡[6]等因素,以及如何最有效地讓司機接受自己是易犯錯誤的并最高效地影響他們的行為[12]。毫不奇怪,現(xiàn)有文獻(xiàn)中的一個共同主題是,人類是交通系統(tǒng)中最不可靠的部分。這可以通過SDV的發(fā)展和廣泛應(yīng)用來改善。硬件和軟件技術(shù)的最新突破使這一前景成為可能,為機器人和人工智能領(lǐng)域打開了大門,從而可能產(chǎn)生迄今為止最大的社會影響。自動駕駛技術(shù)已經(jīng)發(fā)展了很長一段時間,最早的嘗試可以追溯到20世紀(jì)80年代,關(guān)于AL-VINN的研究[13]。然而,直到最近,技術(shù)進(jìn)步才達(dá)到一個可以更廣泛使用的程度,例如2007年DARPA城市挑戰(zhàn)的結(jié)果[14],[15]。在這里,參賽隊伍必須在復(fù)雜的城市環(huán)境中導(dǎo)航,處理公共道路上常見的情況,并與人和機器人駕駛的車輛進(jìn)行互動。這些早期的成功激發(fā)了人們對自動駕駛領(lǐng)域的極大興趣,許多行業(yè)參與者(如Uber和Waymo)和政府機構(gòu)正競相為實現(xiàn)SDVs建立技術(shù)和法律基礎(chǔ)。然而盡管取得了進(jìn)展,仍有更多的工作要做,來使SDVs以人的水平運作并充分商業(yè)化。要在現(xiàn)實世界中安全有效地運行,一個關(guān)鍵的難題是正確地預(yù)測周圍參與者的運動,一個成功的系統(tǒng)還需要考慮到他們固有的多模態(tài)特性。我們專注于這項任務(wù),并以我們部署的基于深度學(xué)習(xí)的工作[16]為基礎(chǔ),創(chuàng)建了編碼高清地圖和環(huán)境的鳥瞰圖(BEV)光柵,以預(yù)測參與者的未來,并提出以下貢獻(xiàn):(1)我們擴展了現(xiàn)有技術(shù),提出了一種方法,取代單一軌跡的推斷,而給出了多條軌跡及其概率;(2) 在對多假設(shè)方法進(jìn)行廣泛的離線研究之后,該方法成功地在SDV上進(jìn)行了封閉道路測試。?

圖1顯示了我們的模型如何捕獲未來6秒軌跡的多模態(tài)。該方法使用光柵化的車輛上下文(包括高清地圖和其他參與者)作為模型輸入,以預(yù)測參與者在動態(tài)環(huán)境中的運動[16]。當(dāng)車輛接近交叉口時,多模態(tài)模型(其中我們將模態(tài)數(shù)設(shè)置為2)估計直行的概率比右轉(zhuǎn)的概率略低,見圖1a。在三個步驟后,車輛繼續(xù)直行,此時右轉(zhuǎn)的概率顯著下降(圖1c);注意,實際上車輛繼續(xù)直行通過交叉口。我們可以看到,單模態(tài)模型不能捕捉場景的多模態(tài),而是粗略地預(yù)測兩種模態(tài)的平均值,如圖1b和1d所示。相關(guān)工作預(yù)測參與者未來動作的問題已在最近的一些出版物中討論過。本課題的全面概述見[17]、[18],在本節(jié)中,我們將從自主駕駛的角度回顧相關(guān)工作。首先,我們將介紹自動駕駛行業(yè)中實際應(yīng)用的工程方法。然后,我們討論了用于運動預(yù)測的機器學(xué)習(xí)方法,特別強調(diào)了深度學(xué)習(xí)方法。自動駕駛系統(tǒng)中的運動預(yù)測大多數(shù)部署的自動駕駛系統(tǒng)使用成熟的工程方法來預(yù)測參與者的動作。常用的方法包括根據(jù)底層物理系統(tǒng)的假設(shè)和利用卡爾曼濾波(KF)[19],[20]等技術(shù),通過隨時間傳播對象的狀態(tài)來計算對象的未來運動。雖然這種方法對短期預(yù)測效果很好,但由于模型忽略了周圍的環(huán)境(如道路、其他參與者、交通規(guī)則),其性能在較長時間內(nèi)會下降。針對這一問題,MercedesBenz[21]提出的方法利用地圖信息作為約束條件來計算車輛的長期未來位置。系統(tǒng)首先將每個檢測到的車輛與地圖上的一條或多條車道相關(guān)聯(lián)。然后,基于地圖拓?fù)?、車道連通性和車輛當(dāng)前狀態(tài)估計,為每個車輛和相關(guān)車道對生成所有可能的路徑。這種啟發(fā)式方法在一般情況下提供了合理的預(yù)測,但是它對車輛和車道關(guān)聯(lián)的誤差很敏感。作為現(xiàn)有的部署工程方法的替代,所提出的方法自動地從車輛通常遵守道路和車道約束的數(shù)據(jù)中學(xué)習(xí),同時很好地推廣到在道路上觀察到的各種情況。此外,結(jié)合現(xiàn)有的車道關(guān)聯(lián)的想法,我們提出了一個我們方法的擴展。機器學(xué)習(xí)預(yù)測模型人工設(shè)計的模型無法擴展到許多不同的交通場景,這促使機器學(xué)習(xí)模型成為替代方案,如隱馬爾可夫模型[22]、貝葉斯網(wǎng)絡(luò)[23]或高斯過程[24]。最近研究人員關(guān)注于如何使用逆強化學(xué)習(xí)(IRL)來模擬環(huán)境背景[25]。Kitani等人[26]考慮場景語義,使用逆最優(yōu)控制來預(yù)測行人路徑,然而現(xiàn)有的IRL方法對于實時應(yīng)用來說是低效的。深度學(xué)習(xí)在許多實際應(yīng)用中的成功[27]促使人們研究它在運動預(yù)測中的應(yīng)用。隨著近期遞歸神經(jīng)網(wǎng)絡(luò)(RNN)的成功,其中一條研究路線叫做長短時間記憶(LSTM)被用于序列預(yù)測任務(wù)。文獻(xiàn)[28],[29]的作者應(yīng)用LSTM預(yù)測了行人在社會交往中的未來軌跡。在[30]中,LSTM被應(yīng)用于利用過去的軌跡數(shù)據(jù)預(yù)測車輛位置。在[31]中,另一個稱為門控遞歸單元(GRU)的RNN變體與條件變分自動編碼器(CVAE)結(jié)合用于預(yù)測車輛軌跡。此外,[32],[33]通過將卷積神經(jīng)網(wǎng)絡(luò)(CNN)應(yīng)用于一系列視覺圖像,直接從圖像像素預(yù)測簡單物理系統(tǒng)的運動。在[16]中,作者提出了一個系統(tǒng),在該系統(tǒng)中,使用CNNs預(yù)測短期車輛軌跡,并將編碼單個參與者周圍環(huán)境的BEV光柵圖像作為輸入,該圖像隨后也應(yīng)用于弱勢交通參與者[34]。盡管這些方法取得了成功,但它們并沒有解決精確的長期交通預(yù)測所需的未來可能軌跡潛在的多模態(tài)問題。目前存在許多研究在解決多模態(tài)建模的問題?;旌厦芏染W(wǎng)絡(luò)(MDNs)[35]是通過學(xué)習(xí)高斯混合模型的參數(shù)來解決多模態(tài)回歸問題的傳統(tǒng)神經(jīng)網(wǎng)絡(luò)。然而,MDNs由于在高維空間中操作時的數(shù)值不穩(wěn)定性,實際上經(jīng)常難以訓(xùn)練。為了解決這個問題,研究人員提出訓(xùn)練一個網(wǎng)絡(luò)集合[36],或者訓(xùn)練一個網(wǎng)絡(luò),用一個僅考慮最接近真值的預(yù)測結(jié)果的損失,來產(chǎn)生M種不同假設(shè)[37]對應(yīng)的M個不同輸出。由于良好的經(jīng)驗結(jié)果,我們的工作建立在這些努力的基礎(chǔ)上。此外,在[38]中,作者通過學(xué)習(xí)將概率分配給六個機動類別的模型,介紹了公路車輛多模態(tài)軌跡預(yù)測的方法。該方法需要預(yù)先定義一組可能的離散動機,這對于復(fù)雜的城市駕駛來說可能很難定義。或者,在[28]、[29]、[31]中,作者建議通過采樣生成多模態(tài)預(yù)測,這需要重復(fù)的前向傳遞來生成多個軌跡。而我們提出的方法在一個單一的前向CNN模型上,直接計算多模態(tài)的預(yù)測結(jié)果。

圖2.

?本文提出的網(wǎng)絡(luò)框架提出的方法在本小節(jié)中,我們討論提出的交通參與者多模態(tài)軌跡預(yù)測方法,我們先介紹問題定義以及符號使用,然后討論我們設(shè)計的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)。問題定義假設(shè)我們可以得到安裝在自動駕駛汽車上的傳感器,比如激光雷達(dá)、超聲波雷達(dá)或者相機的實時數(shù)據(jù)流。此外,假設(shè)這些數(shù)據(jù)被用于現(xiàn)存的檢測和跟蹤系統(tǒng)中,并輸出所有周圍交通參與者的狀態(tài)估計S(狀態(tài)包括檢測框、位置、速度、加速度、航向和航向角變化率)。定義跟蹤器輸出狀態(tài)評估的一組離散時間為,在連續(xù)的時間步之間的時間間隔是固定的(當(dāng)跟蹤器工作在10Hz時,時間間隔為0.1s)。然后,我們定義跟蹤器在tj時刻對第i個交通參與者的狀態(tài)輸出為sij,這里i=1,…,Nj。Nj是在tj時刻被跟蹤的所有交通參與者數(shù)。注意一般情況下,交通參與者的個數(shù)是時刻變化的因為新的交通參與者會出現(xiàn)在傳感器的感知范圍內(nèi)以及原先被跟蹤的交通參與者會超出傳感器的感知范圍。并且,我們假設(shè)可以得到自動駕駛汽車行駛區(qū)域的詳細(xì)的高精地圖信息M,包括道路和人行道位置,車道方向以及其他相關(guān)的地圖信息。多模態(tài)軌跡建?;谖覀冎暗墓ぷ鱗16],我們首先柵格化一個BEV柵格圖像,該圖像編碼交通參與者的地圖環(huán)境以及周圍交通參與者(比如其他的車輛和行人等),如圖一所示。然后,給定在tj時刻的第i個交通參與者的柵格圖和狀態(tài)估計sij,我們使用一個卷積神經(jīng)網(wǎng)絡(luò)模型來預(yù)測M個可能的未來狀態(tài)序列,以及每個序列的概率。其中,m表示模態(tài)數(shù),H表示預(yù)測的時間步長。有關(guān)柵格化方法的詳細(xì)描述,請讀者查閱我們之前的工作[16]。在不損失一般性的情況下,我們簡化了工作,我們只推斷第i個交通參與者未來的x和y坐標(biāo)而不是完整的狀態(tài)估計,而其余的狀態(tài)估計可以通過狀態(tài)序列和未來的位置估計得到。在tj時刻交通參與者過去和未來的位置坐標(biāo)都是都是相對于交通參與者在tj時刻的位置,其中前進(jìn)方向為x軸,左手方向為y軸,交通參與者檢測框的中心為原點。本文提出的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。輸入是300*300的分辨率為0.2米的RGB柵格圖以及交通參與者當(dāng)前的狀態(tài)(車速、加速度和朝向角改變率),輸出是M個模態(tài)的未來的x坐標(biāo)和y坐標(biāo)(每個模態(tài)有2H個輸出)以及它們的概率(每個模態(tài)一個標(biāo)量)。所以每個交通參與者有(2H+1)M的輸出。概率輸出隨后被傳到softmax層以保證它們的和為1。注意任何卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)可以被用作基礎(chǔ)網(wǎng)絡(luò),這里我們使用了MobilleNet-v2。多模態(tài)優(yōu)化函數(shù)在這一部分我們討論我們提出的建模軌跡預(yù)測問題固有的多模態(tài)性的損失函數(shù)。首先,我們定義在tj時刻第i個交通參與者的第m個模態(tài)的單模態(tài)損失函數(shù)為真值軌跡點和預(yù)測的第m個模態(tài)之間的平均位移誤差(或者L2范數(shù))。

一個簡單的多模態(tài)損失函數(shù)我們可以直接使用的是ME損失,定義如下:

然而,從我們在第四節(jié)的評估結(jié)果可以看出,由于模態(tài)崩潰問題,ME損失不適用于軌跡預(yù)測問題。為了解決這個問題,我們受到[37]的啟發(fā)提出使用一種新的多軌跡預(yù)測(MTP)損失,它明確地模擬了軌跡空間的多模態(tài)。在MTP方法中,對tj時刻的第i個交通參與者,我們首先通過神經(jīng)網(wǎng)絡(luò)的前向傳播獲得M條輸出軌跡。然后我們通過一個任意軌跡距離公式確定最接近真值軌跡的模態(tài)m。

在選擇了最佳的匹配模態(tài)m后,最終的損失函數(shù)可以被定義為如下:

這里I是一個二進(jìn)制指示函數(shù),如果條件c是真的就等于1,否則就為0,是一個分類交叉熵?fù)p失,定義為:

α是一個用來權(quán)衡兩個損失的超參數(shù)。換句話說,我們使最匹配的模態(tài)m的概率接近1,使其它模態(tài)的概率接近0。注意在訓(xùn)練的過程中,位置的輸出只更新最優(yōu)模態(tài),而概率的輸出所有模態(tài)都更新。這使得每個模式都專門針對不同類別的參與者行為(例如,直走或者轉(zhuǎn)彎),這樣就成功地解決了模態(tài)崩潰的問題,如接下來的實驗中所示。

圖3:模態(tài)選擇方法(模態(tài)以藍(lán)色表示):使用位移時,真值(綠色)與右轉(zhuǎn)模態(tài)匹配,而使用角度時則與直行模態(tài)匹配我們實驗了幾種不同的軌跡距離函數(shù)。特別是作為第一選項,我們使用的是兩個軌跡之間的平均位移。但是,這個距離函數(shù)并不能很好地對十字路口處的多模態(tài)行為進(jìn)行建模,如圖3所示。為了解決這個問題,我們提出一個通過考慮交通參與者當(dāng)前位置與真值和預(yù)測軌跡最后一個位置之間夾角的測距函數(shù),從而改進(jìn)了對十字路口場景的處理。第四節(jié)給出了定量的比較結(jié)果。最后,對損失(2)和(4)我們訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)參數(shù)來最小化訓(xùn)練集上的損失。

注意我們的多模態(tài)損失函數(shù)是不可知的選擇其中一個模態(tài)作損失函數(shù),并且很容易將我們的方法推廣到論文[16]中提出的用負(fù)高斯對數(shù)似然來預(yù)測軌跡點的不確定性。車道線跟隨多模態(tài)預(yù)測之前我們描述了一種方法,它可以直接在一個前向傳播過程中預(yù)測多個模態(tài)。在[21]中,每輛車都與一條車道相關(guān)聯(lián)(即為車道線跟隨車輛),我們提出了一種隱式輸出多條軌跡的方法。特別是,假設(shè)我們已知可能跟隨的車道線和通過車道線評分系統(tǒng)篩選出不可能跟隨的車道線,我們添加了另一個柵格層來編碼此信息,并訓(xùn)練網(wǎng)絡(luò)輸出車道線跟隨軌跡。然后,對于一個場景,我們通過生成多個不同的車道線跟隨的柵格圖,可以有效地預(yù)測多模態(tài)軌跡。為了生成訓(xùn)練集,我們首先確定車輛實際跟隨的車道線并基于此建立輸入柵格圖。然后我們通過設(shè)置M=1(ME和MTP在這種情況下是相等的)來使用之前介紹的損失函數(shù)來訓(xùn)練車道線跟隨(LF)模型。實際上,LF和其它方法可以被同時使用,分別處理車道線跟隨和其它的交通參與者。請注意我們介紹這種方法只是為了完整性,因為實踐者可能會發(fā)現(xiàn)將柵格化想法與現(xiàn)有的車道線跟隨方法相結(jié)合來獲得多模態(tài)預(yù)測會很有幫助,如[21]中所述。

圖4. LF模型在同一場景下不同跟隨車道線的軌跡輸出示例(淡粉色表示)在圖4中我們展示了同一個場景的柵格圖,但是使用兩個不同的用淡粉色標(biāo)記的跟隨車道線。一個是直行另一個是左轉(zhuǎn)。該方法輸出的軌跡很好地遵循了預(yù)定的路徑,并可用于對車道線跟隨車輛生成多條預(yù)測軌跡。實驗我們通過手動駕駛在匹茲堡、PA、菲尼克斯、AZ等不同交通條件下(如不同時段、不同天數(shù)),收集了240小時的數(shù)據(jù)。從相機、激光雷達(dá)和超聲波雷達(dá)獲取原始傳感器數(shù)據(jù),使用UKF[40]和運動學(xué)模型[41]對j交通參與者進(jìn)行跟蹤,并以10Hz的速率對每輛跟蹤車輛輸出狀態(tài)估計。UKF在大量標(biāo)記數(shù)據(jù)上進(jìn)行了高度優(yōu)化和訓(xùn)練,并在大規(guī)模真實數(shù)據(jù)上進(jìn)行了廣泛測試。每個交通參與者在每個離散時刻的跟蹤時刻相當(dāng)于一個單一的數(shù)據(jù)點1,在刪除靜態(tài)交通參與者后,總體數(shù)據(jù)有780萬個數(shù)據(jù)點。我們考慮了6秒的預(yù)測時間(即H=60),α=1,并且使用3:1:1的分割比例獲得訓(xùn)練集、驗證集和測試集。我們將提出的方法與幾個基線進(jìn)行比較:(1)前向UKF實時估計的狀態(tài)(2)單軌跡預(yù)測(STP)[16](3)高斯混合軌跡空間MDN[35]

模型在TensorFlow[42]上實現(xiàn),并在16Nvidia Titan X GPU卡上訓(xùn)練。我們使用開源分布式框架Horovod[43]進(jìn)行訓(xùn)練,在24小時內(nèi)完成。我們設(shè)置每個gpu處理的批量數(shù)為64,并使用Adam optimizer[44]進(jìn)行訓(xùn)練,將初始學(xué)習(xí)率設(shè)置為10-4,每隔2萬次迭代就降低0.9倍。所有的模型都是端到端的訓(xùn)練,并部署到自動駕駛汽車上,使用GPU執(zhí)行批量處理,平均時間約為10ms。實驗結(jié)果我們使用與運動預(yù)測相關(guān)的誤差度量來比較方法:位移(1),以及沿著和交叉跟蹤的誤差[45]分別測量與真值的縱向和橫向偏差。由于多磨要方法提供了概率,一種可能的評估方法是使用最可能的模態(tài)的預(yù)測誤差。但是,早期關(guān)于多模態(tài)預(yù)測[31]的研究發(fā)現(xiàn),這種度量指標(biāo)更傾向于單模態(tài)模型,因為他們顯示地優(yōu)化了平均預(yù)測誤差,同時輸出了不真實的軌跡(參看圖1中的示例)。我們從[31]和[37]鏡像現(xiàn)有的設(shè)置,過濾掉概率低的軌跡(我們將閾值設(shè)置為0.2),并使用其余設(shè)置的最小誤差模式來計算度量指標(biāo)。我們發(fā)現(xiàn)這種方式計算的結(jié)果更加符合自動駕駛汽車上的觀測性能。表1. 不同方法的預(yù)測誤差比較(以米為單位)

在表1中我們給出了預(yù)測步長為1s和6s的誤差,一級不同數(shù)量的模態(tài)M在整個預(yù)測步長的平均度量指標(biāo)(模態(tài)數(shù)量從2到4)。首先我們可以看到單模態(tài)模型(如UKF和STP)顯然不適合進(jìn)行上時間預(yù)測。然而它們在1s的短時預(yù)測結(jié)果是合理的,6s的預(yù)測誤差明顯大于最優(yōu)多模態(tài)方法。這樣的結(jié)果是在意料之中的,因為在短期內(nèi)交通參與者受到物理和它們周圍環(huán)境的限制,導(dǎo)致真值近似單模態(tài)分布[16]。另一方面,從長時間的角度來看,預(yù)測問題的多模態(tài)性變得更加明顯(例如當(dāng)一個交通參與者接近一個十字路口時,它們在完全相同的場景下可能做出幾種不同的選擇)。單模態(tài)預(yù)測并沒有很好地考慮這種問題,而是直接預(yù)測了一個分布的平均值,如圖1所示。此外,值得注意的是,對于各種M值,MDN和ME給出的結(jié)果與STP相似。原因是眾所周知的模態(tài)崩潰問題,其中只有一個模態(tài)提供了非退化預(yù)測。因此,在實踐中,一個受影響的多模態(tài)方法會退回到單模態(tài),不能完全捕獲多個模態(tài)。[37]的作者報告了MDNs的這個問題,并發(fā)現(xiàn)多模態(tài)假設(shè)模型受到的影響較小,我們的實驗結(jié)果也進(jìn)一步證實了這一點。將我們的重點轉(zhuǎn)移到MTP方法上,我們觀察到與其他方法相比有了明顯的改進(jìn)。平均誤差和6s時刻的誤差都全面下降,表明這些方法學(xué)習(xí)到了交通問題的多模態(tài)性。短期1s和長期6s的預(yù)測誤差均低于其它方法,即使在長期預(yù)測的效果更加明顯。有趣的是,結(jié)果表明當(dāng)M=3時,各項評價指標(biāo)均達(dá)到了最佳。表2. 對于不同模態(tài)在6s時刻的位移誤差

接下來,我們評估了不同的軌跡距離度量,以選擇在MP訓(xùn)練中的最佳匹配模態(tài)。表一顯示,使用位移作為距離函數(shù)比使用角度的性能稍好。然而,為了更好地理解這種選擇的含義,我們將測試集分為三類:左轉(zhuǎn)、右轉(zhuǎn)和直行(測試集中95%的交通參與者大致是直行,其余的在轉(zhuǎn)彎之間平均分布),并在表2中報告了6s預(yù)測的結(jié)果。我們可以看到,使用角度改善轉(zhuǎn)彎的處理,以及非常輕微的退化直行情況。這證實了我們的假設(shè),即角度匹配策略提高了十字路口的性能,這對自動駕駛汽車的安全性至關(guān)重要??紤]到這些結(jié)果,在本節(jié)的剩余部分中,我們將使用角度模態(tài)匹配策略的MTP模型。

圖5. 從左到右分別對應(yīng)1到4個不同模態(tài)對輸出軌跡的影響在圖5中,當(dāng)增加模態(tài)M的數(shù)量時,我們可以看到,當(dāng)M=1時(即所推斷的軌跡大致是直線模式和右轉(zhuǎn)模式的平均值。增加模態(tài)的數(shù)量到2,我們得到了一個直走和右轉(zhuǎn)模態(tài)的清晰的分離。此外,將M設(shè)置為3會出現(xiàn)左轉(zhuǎn)模態(tài),盡管可能性很低。當(dāng)我們設(shè)置為M=4時,我們發(fā)現(xiàn)了一個有趣的結(jié)果,直線模態(tài)又分成了“快”和“慢”模態(tài),建?!そ煌▍⑴c者的縱向速度。我們注意到在遠(yuǎn)離十字路口的直道上也有同樣的效果,直行模態(tài)會分開成幾種不同的速度模態(tài)。

圖6. 模態(tài)概率校正的分析最后,我們對預(yù)測模態(tài)概率的標(biāo)定進(jìn)行了分析。特別地,利用測試集,我們計算了預(yù)測模態(tài)概率和與真值軌跡最匹配的模態(tài)概率之間的關(guān)系。我們根據(jù)軌跡的預(yù)測概率對其進(jìn)行了分段,并計算了每個分段的平均模態(tài)匹配概率。圖6給出了我們使用M=3的結(jié)果,而M為其他值的結(jié)果與所示類似。我們可以看出,改圖與y=x參考線非常接近,表明預(yù)測的概率經(jīng)過了很好的校準(zhǔn)。由于交通參與者行為固有的不確定性,為了保證在道路上安全高效地行駛,自動駕駛汽車需要考慮周圍交通參與者未來可能的多條軌跡。在這篇論文中,我們解決了自動駕駛問題的這一關(guān)鍵方面,并且提出了一種對車輛運動預(yù)測的多模態(tài)建模方法。該方法首先生成一個柵格圖編碼交通參與者的周圍環(huán)境,并使用一個卷積神經(jīng)網(wǎng)絡(luò)模型輸出幾個可能的預(yù)測軌跡及其概率。我們討論了幾種多模態(tài)模型,并與目前最先進(jìn)的方法進(jìn)行了比較,結(jié)果表明,本文提出的方法具有實際效益。經(jīng)過大量的離線評估,該方法成功地在自動駕駛汽車上進(jìn)行了測試。

責(zé)任編輯:張燕妮 來源: 智駕最前沿
相關(guān)推薦

2022-04-25 15:13:03

自動駕駛傳感器

2023-08-08 12:12:07

自動駕駛預(yù)測

2023-03-09 10:06:47

自動駕駛

2022-02-25 10:56:08

自動駕駛傳感器技術(shù)

2023-11-20 09:53:13

自動駕駛系統(tǒng)

2023-02-08 11:04:59

自動駕駛系統(tǒng)

2024-02-27 15:08:04

自動駕駛技術(shù)

2020-10-19 08:15:23

自動駕駛模型人工智能

2024-03-12 09:24:38

智能駕駛

2023-11-22 09:53:02

自動駕駛算法

2022-12-08 09:25:58

自動駕駛技術(shù)

2023-10-24 09:53:56

自動駕駛模型

2023-03-14 09:40:33

自動駕駛

2025-02-07 10:17:55

2023-10-26 09:34:44

自動駕駛技術(shù)

2022-01-10 11:12:54

自動駕駛數(shù)據(jù)人工智能

2017-03-07 13:55:30

自動駕駛神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

2021-01-26 21:26:10

自動駕駛AI人工智能

2025-02-26 10:17:43

2023-12-04 09:33:00

自動駕駛視覺
點贊
收藏

51CTO技術(shù)棧公眾號