GPT-5倒計時!奧特曼踢走Ilya得逞,宮斗驚人內(nèi)幕再曝光
「OpenAI下一代前沿模型,正在訓(xùn)練中」。
經(jīng)歷了幾周前Ilya、安全團隊負(fù)責(zé)人Jan Leike離職后,超級對齊團隊也被OpenAI解散。
今天,奧特曼領(lǐng)銜的OpenAI全新的「安全與保障委員會」官宣成立。
不僅如此,OpenAI預(yù)計,正在訓(xùn)練的下一代旗艦?zāi)P?,將帶領(lǐng)他們通往AGI的道路上邁向新的水平。
OpenAI研究科學(xué)家,德?lián)渲赴l(fā)帖確認(rèn)了新模型訓(xùn)練的消息。
安全委員會的成立,下一代模型的布局,一切說明了OpenAI已非常接近AGI。
雖然這是板上釘釘?shù)墓俜綄嶅N,但只是含糊不清地用了一句「前沿模型」,并沒有確認(rèn)會不會是GPT-5或者其他型號。
模型官宣引起的討論完全搶走了新成立安全委員會的風(fēng)頭(不知道是不是奧特曼故意安排的)。
下一代模型全網(wǎng)大猜想
GPT-4之后,全網(wǎng)對于OpenAI發(fā)布的下一代旗艦?zāi)P鸵軠y了很久。
不過,這一次,他們提到的前沿模型,究竟是什么?
幾天前,巴黎VivaTech科技活動上,OpenAI開發(fā)者體驗負(fù)責(zé)人暗示了,今年一定會發(fā)新模型「GPT Next」,而且網(wǎng)友猜測預(yù)計在11月發(fā)布。
大多數(shù)網(wǎng)友紛紛認(rèn)定,這次可能就是GPT-5了。
不過,又有人指出,在今年4月的時候,GPT-5早已開始了紅隊測試。
這完全說明了GPT-5的訓(xùn)練早已完成,OpenAI正在研究的下一代前沿模型絕不可能是GPT-5。
因此,他們訓(xùn)的是GPT-6無疑了。
另一位爆料人Flowers更加確認(rèn)了這一點,OpenAI當(dāng)然沒有剛開始訓(xùn)練GPT-5。
同時,他還堅持表示,也不會有GPT-6。
當(dāng)有人問道,為什么這么確信OpenAI沒有GPT-6時,F(xiàn)lowers首次透露出一個新奇的點子:
「因為大模型的發(fā)展已經(jīng)接近它們的極限」。
盡管可以通過使用工具、增加功能、提升多模態(tài)能力,擴展上下文等方式來改進(jìn)LLM,但這終將不是長久之計。
但Reddit上有人發(fā)帖否認(rèn)了GPT-5的猜想,甚至新模型應(yīng)該不屬于GPT家族,而是Q*,理由如下:
- GPT-5從12月/1月就開始訓(xùn)練,大致是目前GPT-4o的底層架構(gòu),不可能再發(fā)布一次
- 如果擴展到GPT-6,則需要儲備更多的算力
- 要真正實現(xiàn)LLM的邏輯推理和長期任務(wù)規(guī)劃能力,就需要訓(xùn)練一個新模型來操作LLM,而OpenAI一直在研究Q*來解決這個問題
樓主還提出了Q*方法的大致原理:
- 先提出一個復(fù)雜的Agent任務(wù)
- 讓GPT生成數(shù)百萬個潛在解決方案,以樹狀結(jié)構(gòu)表達(dá),樹中每一個節(jié)點代表Agent推理的一個步驟
- 讓GPT對每個解決方案評分
在已經(jīng)有一個強大GPT模型的基礎(chǔ)上,重復(fù)這個過程就能創(chuàng)建出一個龐大的數(shù)據(jù)集,用來訓(xùn)練新模型指導(dǎo)LLM完成長期的推理或規(guī)劃任務(wù)。
這種猜想甚至比GPT-5更激動人心,評論區(qū)就有人回復(fù)說「像Q*這樣的東西即使不大,也能改變整個游戲」。
也有評論力挺這種說法,因為OpenAI經(jīng)常談到Agent?,F(xiàn)在可能無法使用內(nèi)置的邏輯推理Agent來訓(xùn)練LLM,但用外置的新模型對LLM進(jìn)行「指導(dǎo)」是可行的。
算力體量有多大?
下一代前沿模型雖未知,不過微軟Build大會上,CTO Kevin Scott表示,微軟正在為OpenAI打造「鯨魚」級別的超算。
當(dāng)時訓(xùn)練GPT-3使用的是「鯊魚」級的算力,GPT-4則用上了「虎鯨」級的算力。
90天倒計時開始,全力打造AGI
除了奧特曼本人,「安全與保障委員會」的董事會成員還有主席Bret Taylor、Adam D'Angelo、Nicole Seligman,共四個人。
「安全與保障委員會」的首要任務(wù)將是,在接下來的90天內(nèi),評估改進(jìn)OpenAI現(xiàn)有的AI安全和保障的流程措施。
90天期滿后,他們將與全體董事會提交一份報告。
經(jīng)過董事會的審查之后,OpenAI將公開分享所采納的改進(jìn)措施。
因此,有理由得出結(jié)論,無論下一代「前沿模型」是什么,至少它在90天內(nèi)不會發(fā)布。
委員會中,除了董事會成員,還包括:
OpenAI的技術(shù)和政策專家Aleksander Madry(Preparedness團隊的負(fù)責(zé)人)、Lilian Weng(安全系統(tǒng)負(fù)責(zé)人)、John Schulman(對齊科學(xué)負(fù)責(zé)人)、Matt Knight(安全負(fù)責(zé)人)和Jakub Pachocki(首席科學(xué)家)。
此外,OpenAI還聘請了外部網(wǎng)絡(luò)安全和技術(shù)專家,比如Rob Joyce、John Carlin,來提供咨詢意見。
不搞「超級智能」
奧特曼此前,曾對外公開宣稱,OpenAI終極目標(biāo)是打造一種比人類先進(jìn)的「超級智能」。
他甚至表示,2023年自己有一半的時間都在研究「如何打造超智能」。如今這一說法,卻被另一位高管否認(rèn)。
OpenAI負(fù)責(zé)全球事務(wù)的副總Anna Makanju在接受FT采訪中提到:
我們的使命是打造AGI,并非是「超級智能」。因為超級智能是一種比地球上人類高出多個數(shù)量級的技術(shù)。
不過,她還補充道,「AGI還不存在,我們在確保其安全前,不會發(fā)布這樣的技術(shù)」。
委員會并非獨立
一些人批評到,新的委員會完全由OpenAI的「自己的高管」組成,這意味著對該公司安全措施的評估,將不會是獨立的。
還有網(wǎng)友調(diào)侃道,這不都是由奧特曼本人組成的安全委員會。
之所以出現(xiàn)這樣的聲音,是因為OpenAI董事會去年發(fā)動的政變,成為一直以來爭議的來源。
2023年11月,奧特曼被董事會解雇,理由是「他并不坦誠」。
而最近,由兩名前董事會成員在TIME期刊上撰寫的文章中,更是對奧特曼對OpenAI的治理提出了嚴(yán)厲的批評。
她們表示,Ilya和其他安全對齊團隊人員的離開,預(yù)示著OpenAI「自治實驗」的前景不妙。
團隊重組
在Ilya Sutskever和負(fù)責(zé)人Jan Leike離職后,許多人愈加擔(dān)憂,OpenAI如何管理類AGI技術(shù)的潛在危險。
彭博稱,Ilya走后,OpenAI將他原先團隊中剩余的成員,整合到了更大的研究部門,而不是保留獨立的形式。
與此同時,OpenAI聯(lián)創(chuàng)John Schulman也在負(fù)責(zé)監(jiān)管超級對齊研究。
作為職務(wù)的擴展,他被授予了一個新頭銜——對齊科學(xué)負(fù)責(zé)人(Head of Alignment Science)。
OpenAI宮斗內(nèi)幕曝光
與此同時,針對奧特曼的輿論還在持續(xù)發(fā)酵。
前董事會成員Helen Toner在最近的播客頻道TED AI Show上揭露了一些2023年底OpenAI「宮斗風(fēng)波」的情況。
她解釋了董事會決定罷免奧特曼的原因——隱瞞信息,歪曲事實,公然向董事會撒謊。
比如2022年底ChatGPT發(fā)布時,董事會完全沒有得到消息,而是在推特上才第一次看到。
此外,他一直宣稱自己在公司中沒有任何經(jīng)濟利益,從沒有告知董事會他擁有OpenAI啟動基金。
奧特曼在AI安全方面的表現(xiàn)也讓Toner不安,因為他只會向董事會透露「關(guān)于公司正在實施安全流程的少量、不準(zhǔn)確的信息」。
這意味著,董事會沒有辦法獲知這些流程的真實情況,更無從實行有效的監(jiān)督和指導(dǎo)。
而且,當(dāng)她的論文中包含了對奧特曼的負(fù)面評價時,他開始不擇手段,試圖將Toner趕出董事會。
結(jié)合此前推特網(wǎng)友歷數(shù)的「七宗罪」,奧特曼帶領(lǐng)下的安全團隊,真的能讓下一代模型安全可靠嗎?