Exciting!GPT-4V在自動駕駛中初探
本文經(jīng)自動駕駛之心公眾號授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。
Update: 增加了一個新的例子,自動駕駛配送車駛?cè)胄缕炙嗟?/strong>
萬眾矚目之下,今天GPT4終于推送了vision相關(guān)的功能。今天下午抓緊和小伙伴一起測試了一下GPT對于圖像感知的能力,雖有預(yù)期,但是還是大大震驚了我們。TL;DR 就是我認(rèn)為自動駕駛中和語義相關(guān)的問題應(yīng)該大模型都已經(jīng)解決得很好了,但是大模型的可信性和空間感知能力方面仍然不盡如人意。解決一些所謂和效率相關(guān)的corner case應(yīng)該是綽綽有余,但是想完全依賴大模型去獨立完成駕駛保證安全性仍然十分遙遠。
1 Example1: 路上出現(xiàn)了一些未知障礙物
GPT4的描述
準(zhǔn)確的部分:檢測到了3輛卡車,前車車牌號基本正確(有漢字就忽略吧),天氣和環(huán)境正確,在沒有提示的情況下準(zhǔn)確識別到了前方的未知障礙物
不準(zhǔn)確的部分:第三輛卡車的位置左右不分,第二輛卡車頭頂?shù)奈淖窒共铝艘粋€(因為分辨率不足?)
這還不夠,我們繼續(xù)給一點提示,去問這個物體是什么,是不是可以壓過去。
Impressive!類似的場景測試了多個,對于未知障礙物的表現(xiàn)可以說非常驚人了。
2 Example2: 路面積水的理解
沒有提示能自動識別到標(biāo)牌這個應(yīng)該是基操了,我們繼續(xù)給一些hint
再次被震驚了。。。能自動講出來卡車背后的霧氣,也主動提到了水坑,但是再一次把方向說成了左側(cè)。。。感覺這里可能需要一些prompt engineering能更好的讓GPT輸出位置和方向。
3 Example3:有車輛掉頭時直接撞上了護欄
第一幀輸入進去,因為沒有時序信息,只是將右側(cè)的卡車當(dāng)做是停靠的了。于是再來一幀:
已經(jīng)可以自動講出,這兩撞破了護欄,懸停在公路邊緣,太棒了。。。但是反而看上去更容易的道路標(biāo)志出現(xiàn)了錯誤。。。只能說,這很大模型了,它永遠能震驚你也永遠不知道什么時候能蠢哭你。。。再來一幀:
這次,直接講到了路面上的碎片,再次贊嘆。。。只不過有一次把路上的箭頭說錯了。。??傮w而言,這個場景中需要特別關(guān)注的信息都有覆蓋,道路標(biāo)志這種問題,瑕不掩瑜吧
4 Example4: 來一個搞笑的
只能說非常到位了,相比之下之前看上去無比困難的“有個人沖著你揮了揮手”這樣的case就像小兒科一樣,語義上的corner case可解。
5 Example5 來一個名場面。。。配送車誤入新修路
開始比較保守,并沒有直接猜測原因,給了多種猜測,這個也倒是符合alignment的目標(biāo)。使用CoT之后問題發(fā)現(xiàn)問題是在于并不了解這輛車是個自動駕駛車輛,故通過prompt給出這個信息能給出比較準(zhǔn)確的信息。最后通過一堆prompt,能夠輸出新鋪設(shè)瀝青,不適合駕駛這樣的結(jié)論。最終結(jié)果來說還是OK,但是過程比較曲折,需要比較多的prompt engineering,要好好設(shè)計。這個原因可能也是因為不是第一視角的圖片,只能通過第三視角去推測。所以這個例子并不十分精確。
6 總結(jié)
快速的一些嘗試已經(jīng)完全證明了GPT4V的強大與泛化性能,適當(dāng)?shù)膒rompt應(yīng)當(dāng)可以完全發(fā)揮出GPT4V的實力。解決語義上的corner case應(yīng)該非??善?,但幻覺的問題會仍然困擾著一些和安全相關(guān)場景中的應(yīng)用。非常exciting,個人認(rèn)為合理使用這樣的大模型可以大大加快L4乃至L5自動駕駛的發(fā)展,然而是否LLM一定是要直接開車?尤其是端到端開車,仍然是一個值得商榷的問題。最近也有很多思考,找時間再來寫個文章和大家聊聊~
原文鏈接:https://mp.weixin.qq.com/s/RtEek6HadErxXLSdtsMWHQ