自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

華人CV宗師黃煦濤高徒離職特斯拉,加入OpenAI!專攻多模態(tài)模型研究

人工智能
華人科學(xué)家程博文官宣即將入職OpenAI,加入后訓(xùn)練團(tuán)隊(duì)參與多模態(tài)模型研究。值得一提的是,他還是著名華人計(jì)算機(jī)泰斗Thomas Huang的學(xué)生。

OpenAI又迎來一位AI大將。

最近,華人科學(xué)家程博文官宣離職特斯拉,即將加入OpenAI專攻多模態(tài)模型的研究。

圖片圖片

今天是我在特斯拉自動(dòng)駕駛部門的最后一天,這一年半的經(jīng)歷真的很棒:有機(jī)會(huì)與才華橫溢的同事們共事,學(xué)習(xí)了如何開發(fā)出色的產(chǎn)品等等。但我向通用人工智能(AGI)進(jìn)發(fā)的腳步不會(huì)因此而停歇,不久后,我將加入OpenAI的后訓(xùn)練(post-training)團(tuán)隊(duì),參與構(gòu)建多模態(tài)模型的工作。

值得一提的是,程博文博士畢業(yè)于伊利諾伊大學(xué)厄巴納-香檳分校(UIUC),導(dǎo)師就是大名鼎鼎的計(jì)算機(jī)科學(xué)家Thomas Huang。

黃煦濤于2020年4月逝世黃煦濤于2020年4月逝世

OpenAI視頻生成科學(xué)家Will Depue、技術(shù)人員Farzad Khorasani等人紛紛對他表示歡迎。

圖片圖片

圖片圖片

程博文是誰?

圖片圖片

2022年,程博文正式入職特斯拉,成為自動(dòng)駕駛團(tuán)隊(duì)的一位資深研究科學(xué)家。

在此期間,他的主要工作重心——開發(fā)全自動(dòng)駕駛(FSD)系統(tǒng),包括特斯拉最新的FSD v12。

圖片圖片

程博文曾在UIUC獲得了電氣與計(jì)算機(jī)工程(ECE)的博士學(xué)位,期間由Alexander Schwing教授和Thomas Huang教授指導(dǎo)(2017-2020年)。

在攻讀研究生學(xué)位之前,他于2017年在UIUC完成了電氣與計(jì)算機(jī)工程的學(xué)士學(xué)位學(xué)習(xí)。

圖片圖片

程博文還曾在Facebook AI Research、谷歌研究院、微軟研究院和微軟亞洲研究院實(shí)習(xí)。

個(gè)人主頁中,他提到了自己的研究興趣,覆蓋了計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)。

在特斯拉,程博文將自己視為一位「全棧研究員」,不僅將最新研究成果應(yīng)用于全自動(dòng)駕駛技術(shù)的產(chǎn)品化進(jìn)程中,還參與了產(chǎn)品開發(fā)的全周期工作,包括數(shù)據(jù)引擎、模型設(shè)計(jì)與訓(xùn)練、模型集成等方面。

圖片圖片

最近,他正致力于開發(fā)自動(dòng)駕駛的端到端規(guī)劃網(wǎng)絡(luò)。

作為一位專注于計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)的研究者,程博文對多模態(tài)嵌入式智能體很感興趣。

具體來說,他希望打造出能夠(1)理解人類以任何形式發(fā)出的命令;(2)根據(jù)內(nèi)置知識(shí)或利用工具以期望的方式執(zhí)行任務(wù)并生成結(jié)果;(3)通過吸取常識(shí)知識(shí)和人類反饋進(jìn)行學(xué)習(xí)的AI助手,如自動(dòng)駕駛汽車、聊天機(jī)器人等。

過往項(xiàng)目:重點(diǎn)在「分割」

圖片圖片

程博文獲得CVPR 2022 Oral的一篇論文提出了基于點(diǎn)的實(shí)例級注釋——是實(shí)例分割的一種新的弱監(jiān)督形式。

圖片圖片

論文地址:https://arxiv.org/abs/2104.06404

它將標(biāo)準(zhǔn)邊界框注釋與每個(gè)邊界框內(nèi)均勻采樣的標(biāo)記點(diǎn)相結(jié)合。

研究表明,為完全掩碼監(jiān)督而開發(fā)的現(xiàn)有實(shí)例分割模型(如Mask R-CNN),可以在不做任何重大修改的情況下,通過基于點(diǎn)的注釋進(jìn)行無縫訓(xùn)練。

實(shí)驗(yàn)中,在COCO、PASCAL VOC、Cityscapes和LVIS上訓(xùn)練的Mask R-CNN模型,在每個(gè)對象只有10個(gè)注釋點(diǎn)的情況下,其完全監(jiān)督性能達(dá)到了94%-98%的水平。

與比對象掩碼相比,這種基于點(diǎn)的注釋收集速度快約5倍,讓高質(zhì)量的實(shí)例分割更容易用于新數(shù)據(jù)。

圖片圖片

另外,受新注釋形式的啟發(fā),研究人員還對PointRend實(shí)例分割模塊提出了修改建議。

對于每個(gè)對象,被稱為Implicit PointRend的新架構(gòu)會(huì)為一個(gè)函數(shù)生成參數(shù),該函數(shù)會(huì)進(jìn)行最終的點(diǎn)級掩碼預(yù)測。

Implicit PointRend更為簡單明了,只需使用一個(gè)點(diǎn)級掩碼損失。

實(shí)驗(yàn)表明,新模塊更適合基于點(diǎn)的監(jiān)督方式。

圖片圖片

CVPR 2022上另一篇錄用論文,也是關(guān)于圖像分割的研究。

是Maskformer算法的進(jìn)階。

圖片圖片

論文地址:https://arxiv.org/abs/2112.01527

論文中,他提出的Mask2Former在圖像分割,包括語義分割、實(shí)例分割、視頻語義分割、視頻實(shí)例分割等領(lǐng)域中逐漸變成了一個(gè)基礎(chǔ)模型。

Mask2Former的關(guān)鍵組件包括掩碼注意力,通過限制預(yù)測掩碼區(qū)域內(nèi)的交叉注意力來提取局部特征。

圖片圖片

除了將研究工作量減少至少3倍外,它在四個(gè)流行數(shù)據(jù)集上的表現(xiàn)還大大優(yōu)于最佳專業(yè)架構(gòu)。

最值得注意的是,Mask2Former在全景分割(COCO上為57.8 PQ)、實(shí)例分割(COCO上為50.1 AP)和語義分割(ADE20K上為57.7 mIoU)方面都刷新了SOTA。

圖片

而下面這篇就是Mask2Former的前身MaskFormer,被NeurIPS 2021 Spotlight錄用。

圖片圖片

論文地址:https://arxiv.org/abs/2107.06278

在作者看來,傳統(tǒng)的逐像素分類的方法不足以通用。

為此全新提出的MaskFormer,是一種簡單的掩碼分類模型,可預(yù)測一組二進(jìn)制掩碼,每個(gè)掩碼都與單個(gè)全局類標(biāo)簽預(yù)測相關(guān)聯(lián)。

圖片圖片

他們所提出的基于掩碼分類的方法,簡化了語義和全景分割任務(wù)的有效方法。

特別是,研究人員觀察到,當(dāng)類別數(shù)量較多時(shí),MaskFormer的表現(xiàn)優(yōu)于按像素分類的基準(zhǔn)方法。

具體來說,MaskFormer基于掩碼分類的方法優(yōu)于最先進(jìn)的語義分割模型(在ADE20K上為55.6 mIoU)和全景分割模型(在COCO上為52.7 PQ)。

圖片圖片

程博文在CVPR 2020上,拿下的兩篇論文,都得到了黃煦濤的指導(dǎo)。

圖片圖片

論文地址:https://arxiv.org/abs/1911.10194

這篇論文介紹了Panoptic-DeepLab——一個(gè)簡單、強(qiáng)大、快速的全景分割系統(tǒng)。

旨在為自下而上的方法建立一個(gè)堅(jiān)實(shí)的基線,在獲得快速推理速度的同時(shí),實(shí)現(xiàn)與兩階段方法相當(dāng)?shù)男阅堋?/p>

圖片圖片

還有一篇提出了HigherHRNet,一種全新的自下而上的人體姿勢估計(jì)方法,用于使用高分辨率特征金字塔學(xué)習(xí)尺度感知表示。

圖片圖片

論文地址:https://arxiv.org/abs/1908.10357

圖片圖片

參考資料:

https://twitter.com/bowenc0221/status/1766339742818533636

責(zé)任編輯:武曉燕 來源: 新智元
相關(guān)推薦

2020-04-27 10:28:48

計(jì)算機(jī)科學(xué)家 黃煦濤

2022-11-29 15:15:47

AI模型

2022-07-14 14:54:00

特斯拉AI自動(dòng)駕駛

2025-01-08 08:21:16

2023-05-22 09:22:41

論文CV

2023-12-25 09:07:50

AI人工智能Ferret

2023-11-14 11:40:00

OpenAI人工智能

2024-10-15 14:10:00

OpenAI模型

2024-11-13 09:39:13

2024-12-18 18:57:58

2023-09-19 13:48:31

AI數(shù)據(jù)

2024-09-09 13:50:00

2024-12-12 08:18:50

2025-04-07 00:00:00

多模態(tài)大模型

2025-03-19 09:30:00

2024-11-22 08:22:58

2023-03-15 10:35:16

GPTAI

2023-09-19 12:45:36

2024-11-14 13:30:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)