跨越AGI,Ilya官宣創(chuàng)業(yè)!我要的是「核安全」,SSI劍指安全超級智能
出走36天后,Ilya終于官宣了自己的下一步動向:創(chuàng)建新公司,劍指安全超級智能!
是的,從名字就可以看出,這個新公司SSI的核心,就是Safe SuperIntelligence。
才7小時,就迎來近2w的點贊
5月15日,Ilya發(fā)文稱,自己將離開工作近十年的OpenAI,并祝愿前公司「打造出既安全又有益的AGI」。
OpenAI會不會這么做不知道,但Ilya是直接一步做到位了。
圖片
消息一出,立刻引得網(wǎng)友們奔走相告。
果然,出走半生,Ilya最心系的還是AI安全。
而官方介紹的第一句話,就十分震撼——「超級智能觸手可及」。
個人介紹也第一時間更新為SSI
現(xiàn)在,全網(wǎng)都在翹首以盼,Ilya將拿出震驚全人類的世界級前沿研究。
圖片
網(wǎng)友:直接一步邁入超級智能
Ilya口中的「SSI」,也即安全超級智能,究竟是指什么意思呢?
圖片
顯然,這將是Ilya畢生事業(yè)之所系,也大概率是他和Sam Altman發(fā)生嚴重的理念不和,從而出走OpenAI的主因。
圖片
這下可好,我們直接越過AGI,一步邁進Super Intelligence(超級智能)了。
圖片
要是別人說這個話可能是托大,但他可是Ilya。他在OpenAI看到的東西,或許真能把全體人類帶向超級智能。
圖片
評論區(qū)有人拿LeCun玩梗。
圖片
有人cue到Ilya的前東家奧特曼。
圖片
當然,也有網(wǎng)友發(fā)出了靈魂拷問:你們并不是第一家因為安全理念不合,從OpenAI分支出來的公司了。SSI會和Anthropic有什么不同嗎?
圖片
是的,這一幕仿佛歷史的重演,想當年OpenAI創(chuàng)立時,也曾發(fā)下類似「造福全人類」的豪言壯語。
圖片
這一次,會是歷史的輪回嗎?
圖片
圖片
的確,從Ilya發(fā)出離別信、po出和OpenAI眾元老合影的那天起,一個時代已經(jīng)終結(jié)。
圖片
Ilya:我要打造的安全超級智能,是這樣的
在SSI的官方介紹語中,Ilya這樣解釋了公司的宗旨和愿景——目標唯有一個,就是「實現(xiàn)安全的超級智能」。
并且,Ilya同時向天下牛人們廣發(fā)英雄令,召集世界上最優(yōu)秀的工程師和研究者來「完成你一生的工作,并幫助解決我們這個時代最重要的技術(shù)挑戰(zhàn)」。
超級智能即將實現(xiàn)。
構(gòu)建安全的超級智能(SSI)是我們這個時代最重要的技術(shù)問題。
我們已經(jīng)啟動了世界上第一個專注于SSI的實驗室,目標只有一個:實現(xiàn)安全的超級智能。
它的名字是Safe Superintelligence Inc(安全超級智能公司)。
SSI是我們的使命、我們的名字和我們整個產(chǎn)品路線圖,因為這是我們唯一的重點。我們的團隊、投資者和商業(yè)模式都一致致力于實現(xiàn)SSI。
我們將安全性和能力視為需要通過革命性工程和科學突破來解決的技術(shù)問題,并行推進。我們計劃盡可能快地提高能力,同時確保我們的安全性始終領(lǐng)先。
這樣,我們就可以安心地擴展規(guī)模。
我們單一的目標意味著不會被管理負擔或產(chǎn)品周期分散注意力,我們的商業(yè)模式意味著安全性、安全性和進步都不會受到短期商業(yè)壓力的影響。
我們是一家美國公司,在帕洛阿爾托和特拉維夫設(shè)有辦事處,我們在那里有深厚的根基,并有能力招聘頂尖的技術(shù)人才。
我們正在組建一支由世界上最優(yōu)秀的工程師和研究人員組成的精干團隊,專注于SSI及其他任何事情。
如果你是這樣的人,我們提供一個機會,讓你完成你一生的工作,并幫助解決我們這個時代最重要的技術(shù)挑戰(zhàn)。
現(xiàn)在是時候了。加入我們。
Ilya Sutskever, Daniel Gross, Daniel Levy
2024年6月19日
SSI聯(lián)創(chuàng)
而SSI的幾位聯(lián)創(chuàng),背景分別是這樣的。
Daniel Leviy
Daniel Leviy曾在2022年加入OpenAI擔任技術(shù)員工,領(lǐng)導了優(yōu)化團隊(Optimization team)。
圖片
此前,他于2021年在斯坦福大學獲得計算機科學博士學位,導師是John Duchi,主要研究方向在機器學習、優(yōu)化和隱私。
并于2018年獲得斯坦福計算機科學碩士學位,由Stefano Ermon教授指導,在概率模型和強化學習方面做研究。2015年獲得巴黎綜合理工學院應(yīng)用數(shù)學學士學位。
圖片
入職OpenAI之前,他還在Facebook應(yīng)用機器學習、谷歌大腦實習。
圖片
Daniel Gross
Daniel Gross本人的LinkedIn個人主頁暫時還未更新。不過,他本人介紹中已經(jīng)更新了自己是SSI創(chuàng)始人。
圖片
在19歲的時候,Gross創(chuàng)辦了搜索引擎公司Greplin(隨后更名為Cue),2013年被蘋果收購后,據(jù)稱以4000萬-6000萬完成交易,他便加入了蘋果公司。
在此期間,他領(lǐng)導了蘋果AI和搜索的項目。
圖片
離職蘋果之后,Gross作為Y-Combinator合伙人,成立了全新的AI項目部門。也就是從那時起,他一直專注于投資。
2018年,Gross再次創(chuàng)業(yè),創(chuàng)辦了Pioneer.app,專為創(chuàng)業(yè)者提供啟動資金的加速器。
過去幾年里,他投資了多家公司,其中就包括我們熟知的——Uber、Character.ai、Perplexity.ai、Figma、GitHub等等。
而且,2021年開始他聯(lián)手Nat Friedman在AI領(lǐng)域展開重大投資,并運營一個AI Grant的項目,向AI本土公司提供25萬美元的資金支持。
去年,他們還部署了超算——Andromeda Cluster,由2,512個H100組成,供投資初創(chuàng)公司使用。
圖片
Daniel Gross還被時代期刊「Time 100」評為2023年AI領(lǐng)域最具影響力的人物之一。
圖片
Ilya專訪:我要的是核安全
正如公司名字所強調(diào)的那樣,Ilya將AI安全性置于首要地位。
關(guān)鍵當然在于,確認哪種AI系統(tǒng)比其他系統(tǒng)更安全,或者真正意義上的安全性到底是什么。
目前,Ilya對此說法比較含糊。
不過,他本人也暗示了,SSI將試圖通過在AI系統(tǒng)中植入「工程突破」來實現(xiàn)安全性,而不是依賴于對AI施加實時的防護措施。
他本人表示,當我們說安全時,我們指的是「核安全」,而非「信任與安全」。
圖片
在硅谷,Ilya擁有近乎神話般的地位,始終是全行業(yè)關(guān)注的焦點。
在不少人眼里,沒有Ilya的OpenAI就什么也不是。如果不是Ilya,或許OpenAI不會這么快因ChatGPT而崛起。
這句留言說出了大家的心聲——「最終,奧特曼可能仍然會做正確的事情,但你可以永遠相信Ilya」。
在接受Bloomberg的獨家采訪時,Ilya強調(diào),在SSI到達的安全超級智能之前,它不會做任何事。
「它將免受必須處理大型而復雜的產(chǎn)品,以及必須陷入競爭激烈的外部壓力的影響。」
不過,Ilya拒絕透露SSI背后的財務(wù)支持者是誰,也并未透露目前公司籌集了多少資金。
經(jīng)歷了OpenAI復雜的宮斗事件后,Ilya的再出發(fā),也是某種返璞歸真——
安全超級智能,在某種程度上是對最初OpenAI概念的回歸:一個研究組織試圖構(gòu)建一種在許多任務(wù)上,可以等于甚至超越人類的通用人工智能。
只不過,隨著算力導致的資金缺口增大,OpenAI投奔了微軟,導致公司的組織結(jié)構(gòu)變了。
所有的AI參與者,都面臨著同樣的難題:AI模型的規(guī)模在指數(shù)級增長,需要為不斷擴大的計算需求付出代價。
這種經(jīng)濟現(xiàn)實,也使SSI成為投資者的一場豪賭:押注Ilya和團隊是否會取得突破,是否更有優(yōu)勢。
但Gross已經(jīng)保證:「在我們面臨的所有問題中,資金絕不是問題?!?/p>
Ilya表示,他花了數(shù)年事件思考安全問題,而且已經(jīng)想到了一些方法。
在最基本的層面上,安全的超級智能應(yīng)該具有不會大規(guī)模傷害人類的特性。在此之后,我們可以說我們希望它成為一股向善的力量。我們希望在一些關(guān)鍵價值觀的基礎(chǔ)上開展運營。我們正在思考的一些價值觀,可能是過去幾百年來支撐自由民主的成功價值觀,比如自由、民主。
在他看來,主導AI的LLM將在SSI中發(fā)揮重要作用,但他的目標是更大的東西。比起和我們交談、對話之后就完事了的LLM,他想要的系統(tǒng)更加通用、功能更廣泛。
「你指的是一個正在自主開發(fā)技術(shù)的巨型超級數(shù)據(jù)中心。這太瘋狂了,對吧?我們希望為安全做出貢獻?!?/p>
讓我們期待,Ilya重新起航后,麾下的新公司會給全人類帶來怎樣的驚喜。
參考資料: