奧特曼掛帥新團(tuán)隊(duì),OpenAI新一代大模型開(kāi)訓(xùn),前任高管卻「投敵」了
在聯(lián)合創(chuàng)始人、首席科學(xué)家 Ilya Sutskever 官宣離職、超級(jí)對(duì)齊團(tuán)隊(duì)被解散之后,OpenAI 研究的安全性一直備受質(zhì)疑。
現(xiàn)在,OpenAI 董事會(huì)宣布成立新的安全與保障委員會(huì),由董事 Bret Taylor(董事會(huì)主席)、Adam D’Angelo、Nicole Seligman 和山姆?奧特曼(首席執(zhí)行官)領(lǐng)導(dǎo)。該委員會(huì)負(fù)責(zé)就 OpenAI 項(xiàng)目和運(yùn)營(yíng)的關(guān)鍵安全決策向全體董事會(huì)提出建議。
同時(shí),OpenAI 還宣布最近開(kāi)始訓(xùn)練其下一個(gè)前沿模型,并預(yù)計(jì)最終的系統(tǒng)將使 OpenAI 在通向 AGI 的道路上達(dá)到新的能力水平。
安全與保障委員會(huì)的首要任務(wù)是在未來(lái) 90 天內(nèi)評(píng)估并進(jìn)一步發(fā)展 OpenAI 的開(kāi)發(fā)流程和保障措施。這 90 天結(jié)束時(shí),安全與保障委員會(huì)將與全體董事會(huì)分享他們的建議。經(jīng)過(guò)董事會(huì)的全面審查后,OpenAI 將以符合安全保障的方式公開(kāi)分享已采納建議的最新情況。
OpenAI 技術(shù)和策略專(zhuān)家 Aleksander Madry、Lilian Weng、John Schulman、Matt Knight 和 Jakub Pachocki 也是安全與保障委員會(huì)成員。
此外,OpenAI 還將咨詢(xún)其他 AI 安全研究者和技術(shù)專(zhuān)家來(lái)支持其安全與保障工作。
安全問(wèn)題積重難返
就在 OpenAI 準(zhǔn)備重拾安全與保障工作時(shí),前董事會(huì)成員 Helen Toner 在一檔播客節(jié)目中談及奧特曼的解雇風(fēng)波。令人意外的是,Helen Toner 表示前董事會(huì)是在 Twitter 上獲悉 ChatGPT 的發(fā)布。
2023 年 11 月 OpenAI 的「宮斗風(fēng)波」令人印象深刻,董事會(huì)突然罷免了 OpenAI 聯(lián)合創(chuàng)始人兼首席執(zhí)行官奧特曼,此舉震驚了所有人。
當(dāng)時(shí)到底發(fā)生了什么?Helen Toner 在 TED AI Show 播客的采訪中,從她的角度講述了導(dǎo)致董事會(huì)成員不再信任奧特曼的原因,以及奧特曼最終如何重回 OpenAI。
據(jù) Helen Toner 所述:「當(dāng)前董事會(huì)決定聘請(qǐng)新的 CEO 后,他們覺(jué)得唯一的辦法就是背著奧特曼做這件事。因?yàn)樗腥硕己芮宄?,只要奧特曼察覺(jué)到董事會(huì)可能會(huì)做出不利于他的事情,他就會(huì)不遺余力,竭盡全力破壞董事會(huì)解雇他的計(jì)劃?!?/span>
董事會(huì)不再信任奧特曼的一個(gè)原因是他沒(méi)有告訴董事會(huì)他擁有 OpenAI 創(chuàng)業(yè)基金;另一個(gè)原因是他在多個(gè)場(chǎng)合提供了有關(guān)公司安全流程的不準(zhǔn)確信息。
此外,在「宮斗事件」之前,奧特曼曾與 Toner 發(fā)生過(guò)沖突,Toner 與其他研究者合作撰寫(xiě)了一篇關(guān)于人工智能安全的論文,論文批評(píng)了 OpenAI 掀起的「AI 軍備競(jìng)賽」,這篇文章激怒了奧特曼,他認(rèn)為損害了公司利益。隨后,奧特曼開(kāi)始私下聯(lián)系其他董事會(huì)成員,試圖說(shuō)服他們解雇 Toner。
在兩名高管直接向董事會(huì)講述了他們與奧特曼打交道的經(jīng)歷后,他們描述 OpenAI 的氛圍惡劣,指責(zé)奧特曼「心理虐待」,并提供了奧特曼「在不同情況下撒謊和操控」的證據(jù),董事會(huì)終于采取了行動(dòng)。
最值得注意的是,Toner 以 ChatGPT 的推出為例,說(shuō)明前董事會(huì)對(duì)公司沒(méi)有真正的監(jiān)督。
「當(dāng) ChatGPT 于 2022 年 11 月推出時(shí),董事會(huì)沒(méi)有提前得到通知。我們?cè)?Twitter 上了解到 ChatGPT」,Toner 說(shuō)道。這聽(tīng)起來(lái)非常不合理,甚至有些荒謬。
這或許是前任董事會(huì)與 OpenAI 管理層,特別是奧特曼的矛盾沖突所在。而奧特曼重回 OpenAI 后,不僅恢復(fù)了首席執(zhí)行官的職務(wù),OpenAI 的董事會(huì)也進(jìn)行了重組。
現(xiàn)任董事會(huì)主席 Bret Taylor 迅速就 Toner 在播客中講述的事情做出了回應(yīng):
我們對(duì) Toner 女士重新審視這些問(wèn)題感到失望。董事會(huì)的一個(gè)獨(dú)立委員會(huì)與 Wilmer Hale 律師事務(wù)所合作,對(duì) 2023 年 11 月份的事件進(jìn)行了廣泛的審查。審查得出的結(jié)論是,前任董事會(huì)的決定并非基于對(duì)產(chǎn)品安全保障、開(kāi)發(fā)速度、OpenAI 的財(cái)務(wù)或其向投資者、客戶(hù)或業(yè)務(wù)合作伙伴的聲明的擔(dān)憂。此外,超過(guò) 95% 的員工(包括高級(jí)領(lǐng)導(dǎo)層)要求恢復(fù) Sam 的首席執(zhí)行官職務(wù)并要求前任董事會(huì)辭職。我們的重點(diǎn)仍然是繼續(xù)前進(jìn)并追求 OpenAI 的使命,以確保 AGI 造福全人類(lèi)。
顯然,現(xiàn)任董事會(huì)認(rèn)可支持奧特曼的工作。并且在新成立的安全與保障委員會(huì)中,奧特曼仍然處于領(lǐng)導(dǎo)位置。
前安全負(fù)責(zé)人加入競(jìng)爭(zhēng)對(duì)手 Anthropic
當(dāng)大家在把目光聚焦到 OpenAI 新成立的安全團(tuán)隊(duì)時(shí),曾經(jīng)領(lǐng)導(dǎo)過(guò) OpenAI 超級(jí)對(duì)齊團(tuán)隊(duì)的共同領(lǐng)導(dǎo)者 Jan Leike 宣布正式加入 OpenAI 競(jìng)爭(zhēng)對(duì)手 Anthropic,繼續(xù)從事超級(jí)對(duì)齊研究。新團(tuán)隊(duì)將致力于可擴(kuò)展監(jiān)督、從弱到強(qiáng)的泛化以及自動(dòng)化校準(zhǔn)的研究。
OpenAI 超級(jí)對(duì)齊團(tuán)隊(duì)成立于 2023 年,由 OpenAI 聯(lián)合創(chuàng)始人 Ilya Sutskever 與 Leike 共同領(lǐng)導(dǎo),該團(tuán)隊(duì)的任務(wù)是確保人工智能與其制造者的目標(biāo)保持一致,而不是做出不可預(yù)測(cè)的行為并傷害人類(lèi)。
今年 5 月 14 日, Ilya 發(fā)推宣告離職。與 Ilya 同步宣布離開(kāi)的還有 Leike。隨著兩位高管離職,OpenAI 的超級(jí)對(duì)齊團(tuán)隊(duì)已被解散。
Leike 在 X 的一條帖子中解釋了他辭去超級(jí)對(duì)齊團(tuán)隊(duì)聯(lián)合領(lǐng)導(dǎo)職務(wù)的原因。他寫(xiě)道:「相當(dāng)長(zhǎng)一段時(shí)間以來(lái),我一直與 OpenAI 領(lǐng)導(dǎo)層關(guān)于公司核心優(yōu)先事項(xiàng)的觀點(diǎn)存在分歧,直到我們最終達(dá)到了臨界點(diǎn)。」
Leike 曾經(jīng)解釋過(guò)他加入 OpenAI 的原因,他認(rèn)為 OpenAI 將是世界上進(jìn)行 AI 安全研究的最佳場(chǎng)所,但他長(zhǎng)期以來(lái)一直與 OpenAI 領(lǐng)導(dǎo)層就公司的核心優(yōu)先事項(xiàng)意見(jiàn)不一,直到最終走到了臨界點(diǎn)。Leike 認(rèn)為 OpenAI 在追求通用人工智能 (AGI) 時(shí)應(yīng)該優(yōu)先考慮安全性。
此外,OpenAI 并未履行去年 7 月宣布的對(duì)超級(jí)對(duì)齊團(tuán)隊(duì)的承諾。據(jù)《財(cái)富》雜志援引知情人士的話報(bào)道,該團(tuán)隊(duì)對(duì) GPU 的使用請(qǐng)求一再被拒絕,而且從未接近獲得其承諾的 20% 計(jì)算能力預(yù)算。
在離開(kāi) OpenAI 后的一篇帖子中,Leike 表示:「離開(kāi)這份工作是我做過(guò)的最困難的事情之一,因?yàn)槲覀兤惹行枰宄绾我龑?dǎo)和控制比我們聰明得多的人工智能系統(tǒng)?!惯@可能就是 Leike 在短時(shí)間內(nèi)選擇加入 Anthropic 的原因。
自 OpenAI 于 2022 年底推出 ChatGPT 以來(lái),人工智能安全在整個(gè)科技領(lǐng)域迅速受到重視,并引發(fā)了生成式人工智能產(chǎn)品和投資的熱潮。一些業(yè)內(nèi)人士表示擔(dān)心,公司在沒(méi)有充分考慮潛在社會(huì)危害的情況下,過(guò)快向公眾發(fā)布強(qiáng)大的人工智能產(chǎn)品會(huì)不會(huì)產(chǎn)生巨大的危害。對(duì)于這一問(wèn)題,還沒(méi)有統(tǒng)一的答案。但 AI 安全向何處去,值得每一個(gè)人認(rèn)真審視。