自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

OpenAI 最強(qiáng)推理模型 o3 / o4-mini 震撼發(fā)布!AI 從此能“看圖思考”? 原創(chuàng)

發(fā)布于 2025-4-21 06:44
瀏覽
0收藏

當(dāng)AI不僅能“看”圖,還能“用圖思考”,甚至自主調(diào)用工具解決現(xiàn)實(shí)中的復(fù)雜問(wèn)題,人類(lèi)與機(jī)器的協(xié)作邊界正在被重新定義。今天凌晨,OpenAI發(fā)布的兩款新模型o3和o4-mini,不僅刷新了多項(xiàng)性能紀(jì)錄,更首次將圖像深度融入推理鏈條。

顛覆性突破

首次實(shí)現(xiàn)圖像思維鏈整合


OpenAI 最強(qiáng)推理模型 o3 / o4-mini 震撼發(fā)布!AI 從此能“看圖思考”?-AI.x社區(qū)圖片

OpenAI首次展示了其模型如何嵌入圖像進(jìn)行理性分析的例子。該模型不僅具備“觀察”圖像的能力,更可以“用圖像推導(dǎo)”。這一創(chuàng)新使視覺(jué)和文字理解能力深度結(jié)合,在多模態(tài)基線(xiàn)測(cè)試中取得了最高標(biāo)準(zhǔn)。

比如上傳一張手寫(xiě)公式的草稿紙,它能識(shí)別潦草字跡并解題;看到企業(yè)財(cái)報(bào)圖表,還能自動(dòng)分析趨勢(shì)生成報(bào)告

這些模型在視覺(jué)認(rèn)知任務(wù)上實(shí)現(xiàn)了前所未有的精確度,解決了以往難以應(yīng)對(duì)的問(wèn)題。

全能學(xué)霸O(shè)3:復(fù)雜問(wèn)題的終結(jié)者

根據(jù)OpenAI公布的數(shù)據(jù),O3在Codeforces編程競(jìng)賽、SWE-bench軟件工程基準(zhǔn)和MMMU多學(xué)科理解測(cè)試中均創(chuàng)造了新紀(jì)錄。特別值得一提的是,在現(xiàn)實(shí)世界的高難度任務(wù)中,O3的重大錯(cuò)誤率比前代O1模型降低了驚人的20%。

早期測(cè)試者將O3形容為"具有極高分析能力的思考伙伴",尤其在以下領(lǐng)域表現(xiàn)突出:

  • 生物學(xué)、數(shù)學(xué)和工程領(lǐng)域的新假設(shè)提出與評(píng)估
  • 需要多維度分析的復(fù)雜查詢(xún)
  • 圖像、圖表和圖形等視覺(jué)任務(wù)分析

一位參與測(cè)試的科研人員表示:"O3在解決那些答案并不直觀的復(fù)雜問(wèn)題時(shí),展現(xiàn)出了接近人類(lèi)專(zhuān)家的推理能力。"

小巧精悍的O4-mini:性?xún)r(jià)比之王

與旗艦產(chǎn)品O3一同發(fā)布的還有O4-mini,這款"輕量級(jí)選手"雖然體積更小,但在數(shù)學(xué)、編程和視覺(jué)任務(wù)上卻展現(xiàn)出了驚人的性?xún)r(jià)比。

O4-mini的特點(diǎn)包括:

  • AIME 2024/2025基準(zhǔn)測(cè)試表現(xiàn)最佳之一
  • 非STEM任務(wù)表現(xiàn)超越前代O3-mini
  • 計(jì)算效率極高,支持比O3更高的使用頻率

對(duì)于那些需要推理能力但又預(yù)算有限的高頻、高吞吐量場(chǎng)景,O4-mini無(wú)疑是理想選擇。


OpenAI 最強(qiáng)推理模型 o3 / o4-mini 震撼發(fā)布!AI 從此能“看圖思考”?-AI.x社區(qū)

價(jià)格

OpenAI稱(chēng)o3和o4-mini在很多情況下,它們都比各自的前代o1與o3-mini更高效,也更節(jié)省成本。


OpenAI 最強(qiáng)推理模型 o3 / o4-mini 震撼發(fā)布!AI 從此能“看圖思考”?-AI.x社區(qū)圖片

圖片

如何嘗鮮

4月17日起,OpenAI正式推出全新模型版本,ChatGPT Plus、Team和Pro用戶(hù)將迎來(lái)重大變化——模型選擇器中的o1、o3-mini和o3-mini-high將被o3、o4-mini和o4-mini-high取代!而ChatGPT Enterprise和Edu用戶(hù)則需再等一周才能體驗(yàn)新模型。

免費(fèi)用戶(hù)也有福利! 雖然無(wú)法直接選擇新模型,但你現(xiàn)在可以在輸入問(wèn)題前點(diǎn)擊 “Think” 按鈕,讓系統(tǒng)調(diào)用o4-mini的推理能力,搶先感受更強(qiáng)大的邏輯分析!

更值得期待的是,OpenAI還預(yù)告了o3-pro的即將上線(xiàn),它將支持全部工具功能,為專(zhuān)業(yè)用戶(hù)提供更全面的體驗(yàn)。

Codex CLI

OpenAI也發(fā)布了一個(gè)全新的實(shí)驗(yàn)項(xiàng)目:Codex CLI —— 這是一款輕量級(jí)的編程智能體,專(zhuān)為最大化模型如o3和o4-mini的推理能力而設(shè)計(jì),并計(jì)劃即將支持GPT-4.1等更多API模型。

Codex CLI的目標(biāo)在于,讓用戶(hù)可以直接從命令行體驗(yàn)多模態(tài)推理,比如向模型傳遞截圖或低保真草圖,結(jié)合本地代碼環(huán)境,讓模型參與解決實(shí)際編程任務(wù)。這無(wú)疑將提升我們解決復(fù)雜編程問(wèn)題的效率,減少開(kāi)發(fā)時(shí)間,提升產(chǎn)品質(zhì)量。

當(dāng)開(kāi)發(fā)者能通過(guò)自然語(yǔ)言+截圖驅(qū)動(dòng)計(jì)算機(jī),生產(chǎn)力的爆發(fā)將不可想象——唯一的問(wèn)題是:你的想象力,跟得上 AI 的速度嗎?


本文轉(zhuǎn)載自公眾號(hào)AI 博物院 作者:longyunfeigu

原文鏈接:??https://mp.weixin.qq.com/s/zWcwNubAFaIshWbM0WgUWw??

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請(qǐng)注明出處,否則將追究法律責(zé)任
標(biāo)簽
已于2025-4-21 06:44:25修改
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦