自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

OpenAI內(nèi)斗第二彈!Ilya親信、超級對齊團(tuán)隊2人慘遭開除,被批泄密

人工智能 新聞
OpenAI內(nèi)斗「第二彈」來了?外媒驚曝,OpenAI超級對齊團(tuán)隊關(guān)鍵人物忽然被解雇了,理由是有泄密行為。而且,此人還是Ilya的重要盟友和親信。而身處風(fēng)暴中心的Ilya,依然未曾露面……

驚天大瓜!

據(jù)外媒報道,OpenAI超級對齊團(tuán)隊的2名研究員,因泄露「機密」被正式開除!

而這也是今年3月Sam Altman重掌董事會席位后,OpenAI首次對外公開的人事變動。

被解雇的研究員之一Leopold Aschenbrenner,曾在新成立的超級對齊團(tuán)隊工作。

同時,他也是OpenAI首席科學(xué)家Ilya Sutskever的支持者,OpenAI內(nèi)斗風(fēng)波后,Ilya至今尚未在公開場合露面。

另一位被解雇的員工Pavel Izmailov,曾負(fù)責(zé)推理方面的研究,在安全團(tuán)隊亦有貢獻(xiàn)。

Leopold Aschenbrenner(左), Pavel Izmailov(右)

值得一提的是,被解雇的這倆人,都是去年OpenAI超級對齊團(tuán)隊新論文的作者。

不過,目前尚不清楚,兩位被解雇員工具體泄露了哪些信息。

團(tuán)隊關(guān)鍵人物開除為哪般

OpenAI的發(fā)展情況,仍然是穩(wěn)中向好,勢如破竹,最近一次員工股票出售中,它的估值甚至一度高達(dá)860億美元。

而超級對齊團(tuán)隊(Superalignment),是OpenAI內(nèi)部一個頗具話題性的部門。

AI發(fā)展到最后,如果成為超級智能,好處是或許能幫我們解決核聚變問題,甚至開拓其他星球,但反過來,這么厲害的它,開始危害人類了怎么辦?

為此,在去年夏天,Ilya Sutskever成立了這個團(tuán)隊,來研發(fā)控制和指導(dǎo)超級智能的技術(shù)。

Aschenbrenner,恰恰就是超級智能對齊團(tuán)隊的關(guān)鍵人物之一。

一個爭議就是:這個團(tuán)隊真的有存在的必要嗎?

OpenAI內(nèi)部,員工對此意見不一。

此前的內(nèi)斗風(fēng)波,跟這個理念的爭議也脫不了干系。

作為OpenAI聯(lián)合創(chuàng)始人、重大技術(shù)突破負(fù)責(zé)人,Ilya曾與其他董事會成員一起,決定解雇Sam Altman,原因是他缺乏坦誠。

而Altman宮斗歸來、重返CEO之職后,Ilya離開了董事會,從此似乎銷聲匿跡,引來眾多網(wǎng)友的猜疑。

又是「有效利他主義」

耐人尋味的是,事件中的眾多人物,都有「有效利他主義」(Effective Altruism),有著千絲萬縷的關(guān)聯(lián)。

對齊團(tuán)隊關(guān)鍵人物Aschenbrenner,便是有效利他主義運動的一員。

該運動強調(diào),我們應(yīng)該優(yōu)先解決AI潛在的風(fēng)險,而非追求短期的利潤或生產(chǎn)力增長。

說到這里,就不能不提大名鼎鼎的幣圈大佬、如今淪為階下囚的FTX創(chuàng)始人Sam Bankman-Fried了,他也是有效利他主義的忠實擁躉之一。

19歲時畢業(yè)于哥大的Aschenbrenner,曾在SBF創(chuàng)建的慈善基金Future Fund工作,該基金致力于資助能夠「改善人類長遠(yuǎn)前景」的項目。

一年前,Aschenbrenner加入了OpenAI。

而把Altman踢出局的其他董事會成員,也都被發(fā)現(xiàn)和有效利他主義有干系。

圖片

比如,Tasha McCauley是Effective Ventures的董事會成員,后者即是有效利他中心的母組織。

而Helen Toner曾在專注于有效利他的Open Philanthropy項目工作。

去年11月Altman重任CEO時,二人也都來開了董事會。

這樣看來,此次Aschenbrenner被開除究竟是因為泄密,還是因為其他原因,就值得探究了。

總之,Sam Altman看來是跟有效利他主義主義的這幫人杠上了——畢竟他們的理念,實在是Altman理想中AGI(甚至ASI)的最大絆腳石。

Leopold Aschenbrenner

圖片

Leopold Aschenbrenner還在大三時,便入選了Phi Beta Kappa學(xué)會,并被授予John Jay學(xué)者稱號。

19歲時,更是以最優(yōu)等成績(Summa cum laude)從哥倫比亞大學(xué)順利畢業(yè)。

期間,他不僅獲得了對學(xué)術(shù)成就授以最高認(rèn)可的Albert Asher Green獎,并且憑借著「Aversion to Change and the End of (Exponential) Growth」一文榮獲了經(jīng)濟學(xué)最佳畢業(yè)論文Romine獎。

此外,他還曾擔(dān)任政治學(xué)的Robert Y. Shapiro教授和經(jīng)濟學(xué)的Joseph E. Stiglitz教授的研究助理。

圖片

Leopold Aschenbrenner來自德國,現(xiàn)居風(fēng)景優(yōu)美的加利福尼亞舊金山,志向是為后代保障自由的福祉。

他的興趣相當(dāng)廣泛,從第一修正案法律到德國歷史,再到拓?fù)鋵W(xué),以及人工智能。目前的研究專注于實現(xiàn)從弱到強的AI泛化。

圖片

Pavel Izmailov

圖片

Pavel Izmailov在莫斯科國立大學(xué)獲得數(shù)學(xué)與計算機科學(xué)學(xué)士學(xué)位,在康奈爾大學(xué)獲得運籌學(xué)碩士學(xué)位,并在紐約大學(xué)獲得計算機科學(xué)博士學(xué)位。

他的研究興趣廣泛,包括機器學(xué)習(xí)核心領(lǐng)域內(nèi)的多個主題,不過主要還是致力于深入理解深度神經(jīng)網(wǎng)絡(luò)是如何運作的。

  • 提升AI的推理和問題解決能力
  • 深度學(xué)習(xí)模型的可解釋性,涵蓋大語言模型和計算機視覺模型
  • 利用AI進(jìn)行科學(xué)發(fā)現(xiàn)
  • 大規(guī)模模型的分布外泛化和魯棒性
  • 技術(shù)AI對齊
  • 概率深度學(xué)習(xí)、不確定性估計和貝葉斯方法

此外,他所在團(tuán)隊關(guān)于貝葉斯模型選擇方面的工作,更是在2022年的ICML上獲得了杰出論文獎。

圖片

加入OpenAI之前,他曾在亞馬遜、谷歌等大廠實習(xí)

從2025年秋季開始,Izmailov將加入紐約大學(xué),同時擔(dān)任Tandon CSE系助理教授和Courant CS系客座教授,并加入NYU CILVR小組。

用GPT-2監(jiān)督GPT-4

在這項研究中,OpenAI團(tuán)隊提出了一個創(chuàng)新性模型對齊方式——用小模型監(jiān)督大模型。

Leopold Aschenbrenner對此解釋道,直覺告訴我們,超人類人工智能系統(tǒng)應(yīng)該能「感知」自己是否在安全地操作。

但是,人類能否僅通過「弱監(jiān)督」就從強大的模型中提取出這些概念呢?

圖片

圖片

在未來,AI系統(tǒng)可以處理極其復(fù)雜的任務(wù),比如生成一百萬行代碼。

但是人類需要為其行為設(shè)置一些限制,不如「不要撒謊」或「不要逃離服務(wù)器」。

而目前,大模型這個黑盒,人類根本無法理解它們的行為,那我們?nèi)绾螌崿F(xiàn)這些限制?

通常情況下,我們會用人類的標(biāo)注來訓(xùn)練AI系統(tǒng)。

但是,相比于那些比我們聰明得多的AI系統(tǒng),人類只能算是「弱監(jiān)督」。

也就是說,在復(fù)雜的問題上,人類提供的只是不完整或有缺陷的標(biāo)注。

好在,強大的模型已經(jīng)能夠明顯地,表示出像「這個行動是否危險」這樣的概念。

如此一來,人類就可以要求它說出自己知道的內(nèi)容,包括那些我們無法直接監(jiān)督的復(fù)雜情況。

圖片

為此,團(tuán)隊設(shè)計了一個巧妙的實驗——當(dāng)我們用一個小模型來監(jiān)督大模型時,會發(fā)生什么?

強大的模型是否會模仿比它弱的監(jiān)督者,甚至包括它的錯誤呢?還是說,它能夠泛化到更深層次的任務(wù)或概念?

結(jié)果,他們驚喜地發(fā)現(xiàn),果然可以利用深度學(xué)習(xí)的出色泛化能力來獲得幫助。

像GPT-2這種數(shù)到十都不會的弱雞模型,都可以來監(jiān)督能參加高考的GPT-4,讓它恢復(fù)到接近完美標(biāo)注的80%性能。

圖片

圖片

不過,目前這種方法只在某些情況下有效,所以如果我們只是簡單地應(yīng)用當(dāng)前對齊技術(shù)(比如RLHF)的話,在超人類模型的擴展上可能遇到困難。

圖片

但作者認(rèn)為,超越弱監(jiān)督者的泛化是一個普遍現(xiàn)象,而人類可以通過簡單的方法大幅提高泛化能力。

針對這項研究,未來探索的方向可能包括:

  1. 尋找更好的方法;
  2. 加深科學(xué)理解:我們何時以及為什么能看到良好的泛化?
  3. 采用類似的設(shè)置:實驗設(shè)置與未來超級對齊問題之間還存在重要的不同——我們能解決這些問題嗎?

這項研究讓作者最興奮一點是,他們可以在對齊未來超人類模型的核心挑戰(zhàn)上,取得迭代的實證進(jìn)展。

很多以前的對齊工作要么陷入理論,要么雖然是實證的,但并未直接面對核心挑戰(zhàn)。

比如,在對齊領(lǐng)域有一個長期的觀點是「引導(dǎo)」。(不是直接對齊一個非常聰明的模型,而是首先對齊一個稍微聰明的模型,然后用它來對齊一個中等聰明的模型,依此類推)

現(xiàn)在,雖然還遠(yuǎn)遠(yuǎn)不夠,但OpenAI研究人員已經(jīng)可以直接進(jìn)行測試了。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-12-18 16:02:04

OpenAI人工智能

2023-08-11 13:41:42

2023-12-04 08:33:05

2023-12-16 09:45:56

論文GPT-4AI

2024-04-15 00:00:00

OpenAIIlya泄漏

2024-06-28 13:40:03

2023-12-15 12:52:17

AI模型

2024-05-29 13:02:03

2024-05-15 18:41:58

2024-12-24 14:30:00

模型AI訓(xùn)練

2024-07-18 14:11:36

2024-05-29 13:11:00

2024-07-18 13:19:17

2023-11-19 21:29:19

ChatGPTOpenAI

2024-01-08 07:59:48

OpenAI人工智能AI

2024-05-27 13:08:41

2021-07-21 17:24:28

OpenAI機器人AI

2024-08-28 10:04:17

2023-07-06 07:40:31

OpenAI人工智能

2020-04-29 21:54:46

操作系統(tǒng)核心概念
點贊
收藏

51CTO技術(shù)棧公眾號