OpenAI CEO下場(chǎng)回應(yīng)「封口協(xié)議」,爭(zhēng)議還是到了股權(quán)利益上,奧特曼:我的鍋
自從 Ilya 和 超級(jí)對(duì)齊負(fù)責(zé)人 Jan 離職后,OpenAI 內(nèi)部還是心散了,后續(xù)也有越來越多的人離職,同時(shí)也引發(fā)了更多的矛盾。
昨天,爭(zhēng)議的焦點(diǎn)來到了一份嚴(yán)格的「封口協(xié)議」。
OpenAI 前員工 Kelsey Piper 爆料,任何員工的入職文件說明中都包含一項(xiàng):「在離開公司的六十天內(nèi),你必須簽署一份包含『一般豁免』的離職文件。如果你沒有在 60 天內(nèi)完成,你的股權(quán)獲益將被取消?!?/p>
這份引發(fā)風(fēng)浪的文件截圖,讓 OpenAI CEO 迅速下場(chǎng)回應(yīng):
我們從未收回任何人的既得權(quán)益,如果人們不簽署分離協(xié)議(或不同意不貶損協(xié)議),我們也不會(huì)這樣做。既得股權(quán)就是既得股權(quán)(句號(hào))。
關(guān)于 OpenAI 如何處理股權(quán),山姆?奧特曼的其他回應(yīng)如下:
僅僅 15 分鐘后,爆料者再次質(zhì)疑并大膽提問:既然你已經(jīng)知道了,那么,此前員工的限制協(xié)議會(huì)取消嗎?
因?yàn)榇蟛糠秩?,想要的是一個(gè)明確的解決方案,而不只是歉意:
爆料者 Kelsey Piper 同時(shí)表示:「至于我這樣做是否對(duì) Sam 不公平 —— 我的意思是,我認(rèn)為這是 CEO 的職責(zé)之一。有時(shí)你不僅需要道歉,而且人們還會(huì)吹毛求疵,想要澄清,想要看到政策已經(jīng)改變的證據(jù)?!?/p>
去年有報(bào)道稱,OpenAI 員工薪酬中最常見的一種組合是:30 萬(wàn)美元的固定基本工資,以及每年約 50 萬(wàn)美元的 PPU(利潤(rùn)參與單位)補(bǔ)助金,這是一種股權(quán)補(bǔ)償形式。也就是說,在 PPU 贈(zèng)款的四年期中,大多數(shù) OpenAI 員工預(yù)計(jì)至少獲得 200 萬(wàn)美元的股權(quán)薪酬。
如果消息為真,大部分「被離職」的前員工應(yīng)該都想「堅(jiān)持到底」。
在這場(chǎng)風(fēng)波之外,還有一條爭(zhēng)議同時(shí)進(jìn)行:有關(guān) OpenAI 將如何處理安全和未來風(fēng)險(xiǎn)。
據(jù)多家媒體報(bào)道,隨著最近 Ilya Sutskever、Jan Leike 兩位超級(jí)對(duì)齊團(tuán)隊(duì)的共同領(lǐng)導(dǎo)者離職,OpenAI 的超級(jí)對(duì)齊團(tuán)隊(duì)已被解散。周五,Jan Leike 還發(fā)布了一系列帖子,怒斥 OpenAI 及其領(lǐng)導(dǎo)層忽視「安全」而偏愛「光鮮亮麗的產(chǎn)品」。
今天早些時(shí)候,OpenAI 聯(lián)合創(chuàng)始人 Greg Brockman 對(duì)該問題進(jìn)行了長(zhǎng)文回應(yīng)。
在這篇落款為「Sam and Greg」的文章中,Brockman 指出:OpenAI 已采取措施確保 AI 技術(shù)的安全開發(fā)和部署。
我們非常感謝 Jan 為 OpenAI 所做的一切,我們知道他將繼續(xù)從外部為 OpenAI 的使命做出貢獻(xiàn)。鑒于他的離開所引發(fā)的問題,我們想解釋一下我們是如何考慮整體戰(zhàn)略的。
首先,我們已經(jīng)提高了人們對(duì) AGI 風(fēng)險(xiǎn)和機(jī)遇的認(rèn)識(shí),以便世界能夠更好地為其做好準(zhǔn)備。我們多次展示了擴(kuò)展深度學(xué)習(xí)的驚人可能性,并分析了其影響;在此類呼吁流行之前,我們就呼吁對(duì) AGI 進(jìn)行國(guó)際治理,并幫助開創(chuàng)了評(píng)估人工智能系統(tǒng)災(zāi)難性風(fēng)險(xiǎn)的科學(xué)。
其次,我們一直在為安全部署能力越來越強(qiáng)的系統(tǒng)奠定必要的基礎(chǔ)。首次使用一項(xiàng)新技術(shù)并不容易。例如,我們的團(tuán)隊(duì)做了大量工作,以安全的方式將 GPT-4 推向世界,此后,我們根據(jù)部署過程中的經(jīng)驗(yàn)教訓(xùn),不斷改進(jìn)模型行為和濫用監(jiān)控。
第三,未來將比過去更加艱難。我們需要不斷提升我們的安全工作,以應(yīng)對(duì)每一個(gè)新模型的風(fēng)險(xiǎn)。去年,我們采用了「Preparedness Framework」,以幫助將我們的工作系統(tǒng)化。
現(xiàn)在是談?wù)撐覀內(nèi)绾慰创磥淼暮脮r(shí)機(jī)。
隨著模型的功能不斷增強(qiáng),我們預(yù)計(jì)它們將開始與世界進(jìn)行更深入的整合。用戶將越來越多地與由許多多模態(tài)模型和工具組成的系統(tǒng)進(jìn)行交互,這些系統(tǒng)可以代表他們采取行動(dòng),而不是與一個(gè)只有文本輸入和輸出的單一模型對(duì)話。
我們認(rèn)為,這些系統(tǒng)將給人們帶來極大的好處和幫助,而且有可能安全地提供這些系統(tǒng),但這需要大量的基礎(chǔ)工作。這包括圍繞它們?cè)谟?xùn)練過程中與什么聯(lián)系在一起的深思熟慮,解決困難問題(如可擴(kuò)展的監(jiān)督)的方案,以及其他新型安全工作。在朝著這個(gè)方向發(fā)展的過程中,我們還不確定何時(shí)才能達(dá)到發(fā)布的安全標(biāo)準(zhǔn),如果這將推遲發(fā)布時(shí)間,也沒關(guān)系。
我們知道,我們無(wú)法想象未來所有可能發(fā)生的情況。因此,我們需要一個(gè)非常嚴(yán)密的反饋回路、嚴(yán)格的測(cè)試、每一步的慎重考慮、世界一流的安全性,以及安全與功能的和諧統(tǒng)一。我們將繼續(xù)針對(duì)不同的時(shí)間尺度開展安全研究。我們還將繼續(xù)與各國(guó)政府和許多利益相關(guān)方就安全問題開展合作。
在通往人工智能的道路上,沒有行之有效的指南。我們認(rèn)為,經(jīng)驗(yàn)性的理解可以幫助我們指明前進(jìn)的道路。我們相信,既要實(shí)現(xiàn)巨大的發(fā)展前景,也要努力降低嚴(yán)重的風(fēng)險(xiǎn);我們非常認(rèn)真地對(duì)待我們?cè)谶@方面的角色,并仔細(xì)權(quán)衡對(duì)我們行動(dòng)的反饋意見。
— Sam and Greg
但效果似乎不盡如人意,甚至受到了嘲諷:
AI 領(lǐng)域的活躍學(xué)者 Gary Marcus 也說:透明度勝于雄辯。
看起來,Greg Brockman 并不打算對(duì)政策或承諾方面做出更具體的回應(yīng)了。
在 Jan Leike 和 Ilya Sutskever 離開后,另一位 OpenAI 聯(lián)合創(chuàng)始人 John Schulman 已轉(zhuǎn)而負(fù)責(zé)超級(jí)對(duì)齊團(tuán)隊(duì)正在做的工作,只是不再有一個(gè)專門的部門,而是一個(gè)松散關(guān)聯(lián)的團(tuán)隊(duì)。嵌入公司各個(gè)部門的研究人員小組。OpenAI 將其描述為「更深入地整合(團(tuán)隊(duì))」。
爭(zhēng)議背后的真相是什么呢?也許 Ilya Sutskever 最清楚,但他選擇了體面離場(chǎng),今后可能也不會(huì)再談起這件事。畢竟,他已經(jīng)有了「一個(gè)對(duì)個(gè)人而言非常有意義的項(xiàng)目」。