突發(fā)!OpenAI Sora掌舵人叛逃,轉(zhuǎn)投谷歌DeepMind
OpenAI每次宣布大事之際,總有人要走。
這不,canvas剛發(fā)布,Sora項(xiàng)目卻再傳出壞消息——負(fù)責(zé)人Tim Brooks在推特官宣離職,加入谷歌DeepMind。
我將加入谷歌DeepMind致力于視頻生成和世界模擬器!迫不及待地想與這樣一個(gè)才華橫溢的團(tuán)隊(duì)合作。
我在OpenAI創(chuàng)建Sora的兩年里度過了一段美妙的時(shí)光。感謝所有與我一起工作的充滿熱情和善良的人。對(duì)下一個(gè)階段感到興奮!
按下葫蘆起來瓢,看來發(fā)布日官宣離職可以成為OpenAI的傳統(tǒng)了。
谷歌大佬紛紛在評(píng)論區(qū)彈冠相慶,包括DeepMind和谷歌研究院首席科學(xué)家Jeff Dean,以及谷歌AI Studio的產(chǎn)品負(fù)責(zé)人Logan Kilpatrick。
DeepMind推理團(tuán)隊(duì)的創(chuàng)始人和領(lǐng)導(dǎo)人Denny Zhou——
GPT-4o全量發(fā)布前就已辭職的「Her」項(xiàng)目負(fù)責(zé)人Alexis Conneau雖然沒有加入谷歌,但也開始在線玩?!?dú)g迎成為OpenAI前員工的一員。
看來,谷歌自家的視頻生成模型Veo有望超越Sora了。
目前,Sora的另一位共同負(fù)責(zé)人Bill Peebles仍在OpenAI任職。
雖然今年2月就已經(jīng)發(fā)布,但Sora仍然是一個(gè)「期貨模型」,只對(duì)一小部分紅隊(duì)測(cè)試人員和藝術(shù)家開放。
究竟什么時(shí)候上線,OpenAI也沒給出過明確期限,不像「Her」項(xiàng)目好歹有個(gè)「今年秋天」的flag。
陷入研究泥潭,又遭遇CTO和負(fù)責(zé)人相繼出走,Sora的未來再一次前途未卜。
個(gè)人經(jīng)歷
Tim Brooks在OpenAI共同領(lǐng)導(dǎo)了Sora項(xiàng)目,他的研究重點(diǎn)是開發(fā)能模擬現(xiàn)實(shí)世界的大型生成模型。
這位小哥在伯克利AI研究中心獲得博士學(xué)位,博士導(dǎo)師是Alyosha Efros。讀博期間,他提出了名為InstructPix2Pix的技術(shù)。
在加入OpenAI之前,他曾在谷歌參與開發(fā)Pixel手機(jī)相機(jī)的AI技術(shù),還在英偉達(dá)研究過視頻生成模型。
同時(shí),他還是DALL·E 3的主要研究員。
而他的另一部分履歷,就實(shí)在令人大呼精彩了——攝影作品獲得了「國(guó)家地理」、「Nature's Best Photography」和「National Wildlife Federation」的大獎(jiǎng)。
他拍攝的動(dòng)物照片:
他還曾經(jīng)在紐約百老匯的Beacon Theatre表演,還在國(guó)際無伴奏口技比賽中獲獎(jiǎng)。
網(wǎng)友們紛紛表示,羨慕他擁有這種自由。
而且,Tim Brooks還在簡(jiǎn)歷中頗為「凡爾賽」地表示:「我對(duì)AI充滿熱情,幸運(yùn)的是,這種熱情與我對(duì)攝影、電影和音樂的愛好完美融合?!?/span>
加入DeepMind后,小哥表示,依舊會(huì)從事視頻生成和世界模擬器相關(guān)的工作,繼續(xù)融合自己對(duì)AI的熱情和對(duì)攝影、電影的愛好。
從視頻生成,到模擬世界
今年4月,Sora模型剛剛發(fā)布兩個(gè)月時(shí),共同負(fù)責(zé)人Tim Brooks和Bill Peebles參與了由AGI House組織的一場(chǎng)主題演講,表達(dá)了自己對(duì)視頻生成技術(shù)的看法——「將通過模擬一切來實(shí)現(xiàn)AGI」。
文生視頻模型,如Sora所展示的復(fù)雜場(chǎng)景生成能力,逐漸顯現(xiàn)出對(duì)人類互動(dòng)和身體接觸的詳細(xì)理解,這是AGI的重要一步。
要生成內(nèi)容真實(shí)、畫面逼真的視頻,就需要一個(gè)內(nèi)部模型理解所有物體和人類在環(huán)境中如何運(yùn)動(dòng)、交互,因此,他們認(rèn)為Sora將為通用人工智能的發(fā)展做出貢獻(xiàn)。
在方法論方面,Tim Brooks和Bill Peebles都特別強(qiáng)調(diào)了模型的擴(kuò)展性,他們認(rèn)為語(yǔ)言模型之所以如此成功,是源于具有擴(kuò)展能力,并引用了《The Bitter Lesson》中的觀點(diǎn):
長(zhǎng)遠(yuǎn)來看,那些隨著規(guī)模增長(zhǎng)而性能提升的方法,隨著計(jì)算能力的增加將最終勝出。
通過創(chuàng)建基于Transformer的框架,并對(duì)不同的Sora模型進(jìn)行比較,他們展示了模型訓(xùn)練中計(jì)算量增加對(duì)性能提升的影響。
從基礎(chǔ)模型到增加了32倍計(jì)算量的模型,可以看到對(duì)場(chǎng)景和物體的理解逐步提升。
我們一直致力于保持方法的簡(jiǎn)單性,盡管有時(shí)候?qū)嶋H情況比說起來更具挑戰(zhàn)性。
我們的主要關(guān)注點(diǎn)是做出盡可能簡(jiǎn)單的事情,然后在此基礎(chǔ)上進(jìn)行大規(guī)模的擴(kuò)展。