自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

特斯拉自動駕駛算法和模型解讀

人工智能 新聞
本文來解讀特斯拉FSD的算法和模型進展。

特斯拉是一個典型的AI公司,過去一年訓練了75000個神經(jīng)網(wǎng)絡(luò),意味著每8分鐘就要出一個新的模型,共有281個模型用到了特斯拉的車上。接下來我們分幾個方面來解讀特斯拉FSD的算法和模型進展。

01 感知 Occupancy Network

特斯拉今年在感知方面的一個重點技術(shù)是Occupancy Network (占據(jù)網(wǎng)絡(luò))。研究機器人技術(shù)的同學肯定對occupancy grid不會陌生,occupancy表示空間中每個3D體素(voxel)是否被占據(jù),可以是0/1二元表示,也可以是[0, 1]之間的一個概率值。

為什么估計occupancy對自動駕駛感知很重要呢?因為在行駛中,除了常見障礙物如車輛、行人,我們可以通過3D物體檢測的方式來估計他們的位置和大小,還有更多長尾的障礙物也會對行駛產(chǎn)生重要影響。例如:1.可變形的障礙物,如兩節(jié)的掛車,不適合用3D bounding box來表示;2.異形障礙物,如翻倒的車輛,3D姿態(tài)估計會失效;3.不在已知類別中的障礙物,如路上的石子、垃圾等,無法進行分類。因此,我們希望能找到一種更好的表達來描述這些長尾障礙物,完整估計3D空間中每一個位置的占據(jù)情況(occupancy),甚至是語義(semantics)和運動情況(flow)。

特斯拉用下圖的具體例子來展現(xiàn)Occupancy Network的強大。不同于3D的框,occupancy這種表征對物體沒有過多的幾何假設(shè),因此可以建模任意形狀的物體和任意形式的物體運動。圖中展示了一個兩節(jié)的公交車正在啟動的場景,藍色表示運動的體素,紅色表示靜止的體素,Occupancy Network精確地估計出了公交車的第一節(jié)已經(jīng)開始運動,而第二節(jié)還處于靜止狀態(tài)。

圖片

對正在啟動的兩節(jié)公交車的occupancy估計,藍色表示運動的體素,紅色表示靜止的體素

Occupancy Network的模型結(jié)構(gòu)如下圖所示。首先模型利用RegNet和BiFPN從多相機獲取特征,這個結(jié)構(gòu)跟去年的AI day分享的網(wǎng)絡(luò)結(jié)構(gòu)一致,說明backbone變化不大。然后模型通過帶3D空間位置的spatial query對2D圖像特征進行基于attention的多相機融合。如何實現(xiàn)3D spatial query和2D特征圖之間的聯(lián)系呢?具體融合的方式圖中沒有細講,但有很多公開的論文可以參考。我認為最有可能采取的是兩種方案之一,第一種叫做3D-to-2D query,即根據(jù)每個相機的內(nèi)外參將3D spatial query投影到2D特征圖上,提取對應(yīng)位置的特征。該方法在DETR3D中提出,BEVFormer和PolarFormer也采取了該思想。第二種是利用positional embedding來進行隱式的映射,即將2D特征圖的每個位置加上合理的positional embedding,如相機內(nèi)外參、像素坐標等,然后讓模型自己學習2D到3D特征的對應(yīng)關(guān)系。再接下來模型進行時序融合,實現(xiàn)的方法是根據(jù)已知的自車位置和姿態(tài)變化,將3D特征空間進行拼接。

圖片

Occupancy Network結(jié)構(gòu)

特征融合后,一個基于deconvolution的解碼器會解碼出每個3D空間位置的occupancy,semantics以及flow。發(fā)布會中強調(diào),由于這個網(wǎng)絡(luò)的輸出是稠密(dense)的,輸出的分辨率會受到內(nèi)存的限制。我相信這也是所有做圖像分割的同學們遇到的一大頭疼的問題,更何況這里做的是3D分割,但自動駕駛對于分辨率度的要求卻很高(~10cm)。因此,受到神經(jīng)隱式表示(neural implicit representation)的啟發(fā),模型的最后額外設(shè)計了一個隱式queryable MLP decoder,輸入任意坐標值(x,y,z),可解碼出該空間位置的信息,即occupancy,semantics,flow。該方法打破了模型分辨率的限制,我認為是設(shè)計上的一個亮點。

02 規(guī)劃 Interactive Planning

規(guī)劃是自動駕駛的另一個重要模塊,特斯拉這次主要強調(diào)了在復雜路口對交互(interaction)進行建模。為什么交互建模如此重要呢?因為其他車輛、行人的未來行為都有一定的不確定性,一個聰明的規(guī)劃模塊要在線進行多種自車和他車交互的預(yù)測,并且對每一種交互帶來的風險進行評估,并最終決定采取何種策略。

特斯拉把他們采用的規(guī)劃模型叫做交互搜索(Interaction Search),它主要由三個主要步驟組成:樹搜索,神經(jīng)網(wǎng)絡(luò)軌跡規(guī)劃和軌跡打分。

1、樹搜索是軌跡規(guī)劃常用的算法,可以有效地發(fā)現(xiàn)各種交互情形找到最優(yōu)解,但用搜索的方法來解決軌跡規(guī)劃問題遇到的最大困難是搜索空間過大。例如,在一個復雜路口可能有20輛與自車相關(guān),可以組合成超過100種交互方式,而每種交互方式都可能有幾十種時空軌跡作為候選。因此特斯拉并沒有采用軌跡搜索的方法,而是用神經(jīng)網(wǎng)絡(luò)來給一段時間后可能到達的目標位置(goal)進行打分,得到少量較優(yōu)的目標。

2、在確定目標以后,我們需要確定一條到達目標的軌跡。傳統(tǒng)的規(guī)劃方法往往使用優(yōu)化來解決該問題,解優(yōu)化并不難,每次優(yōu)化大約花費1到5毫秒,但是當前面步驟樹搜索的給出的候選目標比較多的時候,時間成本我們也無法負擔。因此特斯拉提出使用另一個神經(jīng)網(wǎng)絡(luò)來進行軌跡規(guī)劃,從而對多個候選目標實現(xiàn)高度并行規(guī)劃。訓練這個神經(jīng)網(wǎng)絡(luò)的軌跡標簽有兩種來源:第一種是人類真實開車的軌跡,但是我們知道人開的軌跡可能只是多種較優(yōu)方案中的一種,因此第二種來源是通過離線優(yōu)化算法產(chǎn)生的其他的軌跡解。

3、在得到一系列可行軌跡后,我們要選擇一個最優(yōu)方案。這里采取的方案是對得到的軌跡進行打分,打分的方案集合了人為制定的風險指標,舒適指標,還包括了一個神經(jīng)網(wǎng)絡(luò)的打分器。

通過以上三個步驟的解耦,特斯拉實現(xiàn)了一個高效的且考慮了交互的軌跡規(guī)劃模塊?;谏窠?jīng)網(wǎng)絡(luò)的軌跡規(guī)劃可以參考的論文并不多,我有發(fā)表過一篇與該方法比較相關(guān)的論文TNT[5],同樣地將軌跡預(yù)測問題分解為以上三個步驟進行解決:目標打分,軌跡規(guī)劃,軌跡打分。感興趣的讀者可以前往查閱細節(jié)。此外,我們課題組也在一直探究行為交互和規(guī)劃相關(guān)的問題,也歡迎大家關(guān)注我們最新的工作InterSim[6]。

圖片

Interaction Search規(guī)劃模型結(jié)構(gòu)

03 矢量地圖 Lanes Network

個人覺得本次AI Day上另一大技術(shù)亮點是在線矢量地圖構(gòu)建模型Lanes Network。有關(guān)注去年AI Day的同學們可能記得,特斯拉在BEV空間中對地圖進行了完整的在線分割和識別。那么為什么還要做Lanes Network呢?因為分割得到的像素級別的車道不足夠用于軌跡規(guī)劃,我們還需要得到車道線的拓撲結(jié)構(gòu),才能知道我們的車可以從一條車道變換到另一條車道。

我們先來看看什么是矢量地圖,如圖所示,特斯拉的矢量地圖由一系列藍色的車道中心線centerline和一些關(guān)鍵點(連接點connection,分叉點fork, 并道點merge)組成,并且通過graph的形式表現(xiàn)了他們的連接關(guān)系。

圖片

矢量地圖,圓點為車道線關(guān)鍵點,藍色為車道中心線

Lanes Network在模型結(jié)構(gòu)上,是感知網(wǎng)絡(luò)backbone基礎(chǔ)上的一個decoder。相比解碼出每個體素的occupancy和語義,解碼出一系列稀疏的、帶連接關(guān)系的車道線更為困難,因為輸出的數(shù)量不固定,此外輸出量之間還有邏輯關(guān)系。

特斯拉參考了自然語言模型中的Transformer decoder,以序列的方式自回歸地輸出結(jié)果。具體實現(xiàn)上來說,我們首先要選取一個生成順序(如從左到右,從上到下),對空間進行離散化(tokenization)。然后我們就可以用Lanes Network進行一系列離散token的預(yù)測。如圖所示,網(wǎng)絡(luò)會先預(yù)測一個節(jié)點的粗略位置的(index:18),精確位置(index:31),然后預(yù)測該節(jié)點的語義("Start",即車道線的起點),最后預(yù)測連接特性,如分叉/并道/曲率參數(shù)等。網(wǎng)絡(luò)會以這樣自回歸的方式將所有的車道線節(jié)點進行生成。

圖片

Lanes Network網(wǎng)絡(luò)結(jié)構(gòu)

我們要注意到,自回歸的序列生成并不是語言Transformer模型的專利。我們課題組在過去幾年中也有兩篇生成矢量地圖的相關(guān)論文,HDMapGen[7]和VectorMapNet[8]。HDMapGen采用帶注意力的圖神經(jīng)網(wǎng)絡(luò)(GAT)自回歸地生成矢量地圖的關(guān)鍵點,和特斯拉的方案有異曲同工之妙。而VectorMapNet采用了Detection Transformer(DETR)來解決該問題,即用集合預(yù)測(set prediction)的方案來更快速地生成矢量地圖。

圖片

HDMapGen矢量地圖生成結(jié)果

圖片

VectorMapNet矢量地圖生成結(jié)果

04 自動標注 Autolabeling

自動標注也是特斯拉在去年AI Day就講解過的一種技術(shù),今年的自動標注著重講解了Lanes Network的自動標注。特斯拉的車每天就能產(chǎn)生500000條駕駛旅程(trip),利用好這些駕駛數(shù)據(jù)能夠更好地幫助進行車道線的預(yù)測。

特斯拉的自動車道線標注有三個步驟:

1、通過視覺慣性里程計(visual inertial odometry)技術(shù),對所有的旅程進行高精度軌跡估計。

2、多車多旅程的地圖重建,是該方案中的最關(guān)鍵步驟。該步驟的基本動機是,不同的車輛對同一個地點可能有不同空間角度和時間的觀測,因此將這些信息進行聚合能更好地進行地圖重建。該步驟的技術(shù)點包括地圖間的幾何匹配和結(jié)果聯(lián)合優(yōu)化。

3、對新旅程進行車道自動標注。當我們有了高精度的離線地圖重建結(jié)果后,當有新的旅程發(fā)生時,我們就可以進行一個簡單的幾何匹配,得到新旅程車道線的偽真值(pseudolabel)。這種獲取偽真值的方式有時候(在夜晚、雨霧天中)甚至會優(yōu)于人工標注。

圖片

Lanes Network自動標注

05 仿真 Simulation

視覺圖像的仿真是近年來計算機視覺方面的熱門方向。在自動駕駛中,視覺仿真的主要目的,是有針對性地生成一些少見場景,從而免掉到真實路測中去碰運氣的必要。例如,特斯拉常年頭疼的路中央橫著大卡車的場景。但是視覺仿真并不是一個簡單的問題,對于一個復雜的路口(舊金山的Market Street),利用傳統(tǒng)建模渲染的方案需要設(shè)計師2周的時間。而特斯拉通過AI化的方案,現(xiàn)在只需要5分鐘。

圖片

視覺仿真重建的路口

具體來說,視覺仿真的先決條件是要準備自動標注的真實世界道路信息 ,和豐富的圖形素材庫。然后依次進行以下步驟:

1、路面生成:根據(jù)路沿進行路面的填充,包括路面坡度、材料等細節(jié)信息。

2、車道線生成:將車道線信息在路面上進行繪制。

3、植物和樓房生成:在路間和路旁隨機生成和渲染植物和房屋。生成植物和樓房的目的不僅僅是為了視覺的美觀,它也同時仿真了真實世界中這些物體引起的遮擋效應(yīng)。

4、其他道路元素生成:如信號燈,路牌,并且導入車道和連接關(guān)系。

5、加入車輛和行人等動態(tài)元素。

06 基礎(chǔ)設(shè)施 Infrastructure

最后,我們簡單說說特斯拉這一系列軟件技術(shù)的基礎(chǔ),就是強大的基礎(chǔ)設(shè)施。特斯拉的超算中心擁有14000個GPU,共30PB的數(shù)據(jù)緩存,每天都有500000個新的視頻流入這些超級計算機。為了更高效地處理這些數(shù)據(jù)額,特斯拉專門開發(fā)了加速的視頻解碼庫,以及加速讀寫中間特征的文件格式.smol file format。此外,特斯拉還自研了超算中心的芯片Dojo,我們在這里不做講解。

圖片

視頻模型訓練的超算中心

07 總結(jié)

隨著近兩年特斯拉AI Day的內(nèi)容發(fā)布,我們慢慢看清了特斯拉在自動(輔助)駕駛方向上的技術(shù)版圖,同時我們也看到特斯拉自己也在不停地自我迭代,例如從2D感知,BEV感知,到Occupancy Network。自動駕駛是一個萬里長征,是什么在支撐特斯拉技術(shù)的演進呢?我想是三點:視覺算法帶來的全場景理解能力,強大算力支持的模型迭代速度,海量數(shù)據(jù)帶來的泛化性。這不就是深度學習時代的三大支柱嗎?

責任編輯:張燕妮 來源: 智駕最前沿
相關(guān)推薦

2021-12-01 10:21:27

自動駕駛技術(shù)人工智能

2022-02-25 15:27:22

特斯拉自動駕駛硬件

2023-06-02 10:33:35

2022-03-10 10:41:50

特斯拉智能自動駕駛

2023-03-11 22:44:04

人工智能特斯拉

2024-01-03 15:07:10

2022-07-12 09:42:10

自動駕駛技術(shù)

2016-10-21 20:16:25

安全性自動駕駛特斯拉

2022-07-14 14:54:00

特斯拉AI自動駕駛

2023-11-27 10:26:59

自動駕駛特斯拉

2023-05-06 10:02:37

深度學習算法

2023-07-17 11:27:56

2022-10-27 10:18:25

自動駕駛

2023-02-06 16:00:00

自動駕駛特斯拉

2020-01-18 16:33:26

AI 數(shù)據(jù)人工智能

2022-03-21 11:34:29

特斯拉自動駕駛安全

2023-02-09 15:30:35

特斯拉AI

2021-11-18 09:50:35

自動駕駛輔助駕駛人工智能

2023-10-30 09:42:29

自動駕駛模型

2023-12-08 10:10:56

模型論文調(diào)研
點贊
收藏

51CTO技術(shù)棧公眾號