確認了!o3-mini幾周內(nèi)發(fā)布,奧特曼表示AGI只需872兆瓦計算功率
昨天,我們報道了一個行業(yè)猜想,說是 OpenAI 和 Anthropic 等前沿大模型公司可能已經(jīng)訓練出了下一代大模型,但由于它們的使用成本過高,所以短時間內(nèi)根本不會被放出來。但是,為了響應(yīng)用戶期待,OpenAI 和 Anthropic 等公司會不斷放出一些基于下一代大模型蒸餾得到的較小模型。
有意思的是,就在這篇文章發(fā)布后不久,OpenAI CEO 山姆?奧特曼就在 ?? 上宣布將在「幾周內(nèi)」發(fā)布 o3-mini,并且這一次會同時發(fā)布 API 與網(wǎng)頁端。從名字也能看出來,o3-mini 應(yīng)該就是某個大模型的蒸餾版,這似乎也映證了上面的猜想。
另據(jù) OpenAI 研究科學家 Hongyu Ren 透露,他們會同時發(fā)布 o3-mini 的 high、medium、low 三個版本。
當然,嚴格來說,這并不算是一個新聞。早在上個月 21 日,OpenAI 十二天連發(fā)的最后一天,奧特曼就提到過計劃在一月底左右推出 o3-mini,并在不久后推出完整的 o3 模型。
這條推文之后,奧特曼又積極地回答了許多網(wǎng)友的提問,為我們揭示了更多細節(jié)。
首先,奧特曼證實 o3-mini 的性能表現(xiàn)會遜于 o1-pro,但速度會更快。
這一點著實讓不少網(wǎng)友失望,因為從這個描述看,o3-mini 可能也就比 o1-mini 強一點。
但其實,OpenAI 此前就已經(jīng)公布過相關(guān)基準數(shù)據(jù)了,所以這一點倒并不讓人驚訝。比如在 Codeforces 編程基準上,o3-mini (low) 性能不及 o1,high 版本會好一些,但整體都更具成本效益,這使其非常適合用來編程。
OpenAI 的 Dylan Hunn 也強調(diào)了 o3-mini 在編程速度上的優(yōu)勢。
或許是為了安撫大家的情緒,奧特曼又抬出了 o3,表示這個版本會比 o1-pro 聰明得多,更別提 o3-pro 了。同時,他也表示 o3-pro 的定價不會是一個月 2000 美元起,200 美元的 Pro 訂閱者應(yīng)該就能獲得一定的使用額度。
至于 o3-mini 的使用額度,奧特曼只是說「真的高」,從上下文看應(yīng)該會比 o1 系列的高一些。
奧特曼也表示 o3-mini 會向 ChatGPT Plus 訂閱者提供,并不限于 200 美元月供的 Pro 用戶。
另外,奧特曼也談到了 GPT 系列與 o 系列模型品牌融合的問題??雌饋?,這個融合行動就將在今年發(fā)生!
AGI 需要 872 兆瓦的計算功率
除了與 o3-mini 相關(guān)的問題,奧特曼也解答了一個與 AGI 相關(guān)的提問。當然,他的答復(fù)已經(jīng)不是第一次出現(xiàn)了:AGI 可以實現(xiàn),并且需要 872 兆瓦的計算功率。作為參考,美國目前最大的核電站 Alvin W. Vogtle 發(fā)電站的裝機容量為 4536 兆瓦,理想情況下也頂多僅能供養(yǎng) 5 個這樣的 AGI。不過話也說回來,872 兆瓦這個數(shù)據(jù)著實精確得讓人驚訝。
那我們目前實際上已經(jīng)到哪一步了呢?根據(jù) situational-awareness.ai 的估算,目前 AI 的功率應(yīng)該差不多就在這個水平。
看起來,OpenAI 確實很有可能已經(jīng)開發(fā)出了下一代模型,甚至有可能達到了 AGI 等級 —— 當然,這得取決于 OpenAI 對 AGI 的具體定義。事實上,已經(jīng)有人根據(jù)所謂的內(nèi)部消息在暗示這一點了。
對此,你有什么看法呢?