今天凌晨1點(diǎn)30,OpenAI發(fā)布了全新圖像模型GPTimage1,已經(jīng)通過API向全球開發(fā)者開放使用。GPTimage1與ChatGPT版本有很大不同,可以控制生成圖像的敏感度、生成效率、背景、輸出格式、渲染質(zhì)量、壓縮質(zhì)量等,并且支持全網(wǎng)爆火的吉卜力模式。目前,Adobe、Figma、HeyGen、Wix等知名企業(yè)已經(jīng)將該模型集成在產(chǎn)品中。需要注意的是,OpenAI已經(jīng)對(duì)新模型的API使用了全新身份驗(yàn)證。如果無法通過驗(yàn)證的小伙伴,可以使用微軟的Azure云服務(wù)...
6天前 758瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
字節(jié)跳動(dòng)開源了多模態(tài)AIAgentUITARS的最新1.5版本。與上一代相比,1.5版本在計(jì)算機(jī)使用、瀏覽器使用和手機(jī)使用等基準(zhǔn)測(cè)試中均表現(xiàn)非常出色。在計(jì)算機(jī)使用方面,OSworld測(cè)試得分為42.5,高于OpenAICUA的36.4、Claude3.7的28以及之前的最高水平38.1(200步);WindowsAgentArena(50步)得分為42.1,遠(yuǎn)超之前的29.8。瀏覽器使用方面,WebVoyager得分為84.8,接近OpenAICUA和之前最高水平的87,OnlineMind2web得75.8,優(yōu)于OpenAICU...
7天前 1010瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天凌晨,微軟在官網(wǎng)開源了DeepSeekR1魔改版MAIDSR1,在保留原有推理性能的基礎(chǔ)上進(jìn)行了大幅度增強(qiáng)。尤其是在響應(yīng)和屏蔽詞方面有了顯著改進(jìn):MAIDSR1可以響應(yīng)99.3%的敏感話題提示,比原版R1提升了2倍,這對(duì)于政治學(xué)術(shù)研究、社會(huì)問題、倫理道德研究等幫助巨大;但在安全風(fēng)險(xiǎn)大幅度降低,比原版R1降低了50%。那些想體驗(yàn)一下“放飛自我”版R1的小伙伴們可以試試這個(gè),非常有意思打開全新世界。開源地址:??https:huggingface.co...
2025-04-18 09:47:15 1978瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天凌晨1點(diǎn),OpenAI進(jìn)行了技術(shù)直播,發(fā)布了最強(qiáng)、最智能模型o4mini和滿血版o3。o4mini和o3是兩款多模態(tài)模型,能同時(shí)處理文本、圖像和音頻,并且能作為Agent智能體自動(dòng)調(diào)用網(wǎng)絡(luò)搜索、圖像生成、代碼解析等工具以及深度思考模式(思維鏈中可以思考圖像)。根據(jù)OpenAI公布的測(cè)試數(shù)據(jù)顯示,o4mini在AIME2024和2025中,分別達(dá)到了93.4%和92.7%,比滿血版o3還強(qiáng),成為目前準(zhǔn)確率最高的模型;在Codeforces測(cè)試中達(dá)到了2700分,成為全...
2025-04-17 09:50:34 1200瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天凌晨1點(diǎn),谷歌DeepMind終于將大家期待已久的Veo2整合到GeminiApp應(yīng)用中,全面開放使用。Veo2可以最高生成8秒720P電影級(jí)視頻,在運(yùn)鏡、文本語義還原、物理模擬、動(dòng)作一致性等方面非常優(yōu)秀,同時(shí)支持圖片轉(zhuǎn)視頻功能。根據(jù)谷歌公布的測(cè)試數(shù)據(jù)顯示,Veo2在用戶偏好和提示還原方面已經(jīng)超過了Sora、可靈1.5、MetaMovieGen和Minimax。此外,從今天開始開發(fā)人員可以在GoogleAIStudio中通過API使用Veo2。API詳細(xì)地址:??https:ai.g...
2025-04-16 10:18:21 1130瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天凌晨1點(diǎn),OpenAI進(jìn)行了技術(shù)直播發(fā)布了最新模型——GPT4.1。除了GPT4.1之外,還有GPT4.1Mini和GPT4.1Nano兩款模型,在多模態(tài)處理、代碼能力、指令遵循、成本方面實(shí)現(xiàn)大幅度提升。特別是支持100萬token上下文,這對(duì)于金融分析、小說寫作、教育等領(lǐng)域幫助巨大。由于GPT4.1的發(fā)布,OpenAI宣布將會(huì)淘汰剛發(fā)布不久的GPT4.5,其能力可見一斑。目前,如果想體驗(yàn)GPT4.1而無法通過API身份驗(yàn)證的小伙伴,微軟已經(jīng)在AzureOpenAI上線了該...
2025-04-15 09:44:25 612瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
斯坦福大學(xué)、耶魯大學(xué)、南加州大學(xué)等研究人員聯(lián)合開源了,專用于代碼定位的智能體LocAgent。在軟件開發(fā)和維護(hù)領(lǐng)域,代碼定位是開發(fā)者日常工作中的核心任務(wù)之一,需要開發(fā)者根據(jù)問題描述,例如,錯(cuò)誤報(bào)告、功能請(qǐng)求或性能問題等,快速、準(zhǔn)確地找到需要修改的代碼片段。但傳統(tǒng)代碼定位方法在處理復(fù)雜代碼庫時(shí),面臨復(fù)雜代碼庫導(dǎo)航困難,問題描述與代碼實(shí)體之間的語義鴻溝,多跳推理的困難等。而LocAgent可以有效解決這些難題,能...
2025-04-10 10:24:08 1224瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
昨晚,谷歌在GoogleCloudNext25大會(huì)上,開源了首個(gè)標(biāo)準(zhǔn)智能體交互協(xié)議——Agent2AgentProtocol(簡稱A2A)。A2A將徹底打破系統(tǒng)孤島,對(duì)智能體的能力、跨平臺(tái)、執(zhí)行效率產(chǎn)生質(zhì)的改變,支持Atlassian、Box、Cohere、Intuit、Langchain、MongoDB、PayPal、Salesforce、SAP、ServiceNow、UKG和Workday等主流企業(yè)應(yīng)用平臺(tái)。簡單來說,這個(gè)A2A交互協(xié)議有點(diǎn)當(dāng)年谷歌牽頭80多家企業(yè)搞安卓系統(tǒng)的味道,因?yàn)槭着陀?0多家著名企業(yè)加入。...
2025-04-10 10:19:24 1144瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
全球AI領(lǐng)導(dǎo)者英偉達(dá)開源了,用于實(shí)體機(jī)器人和自動(dòng)化駕駛的超大訓(xùn)練數(shù)據(jù)合集——NVIDIAPhysicalAIDataset。這個(gè)數(shù)據(jù)集一共15T,涵蓋了超過320,000個(gè)機(jī)器人訓(xùn)練軌跡,以及多達(dá)1,000個(gè)通用場(chǎng)景描述,還包括一個(gè)SimReady集合。此外,用于支持端到端自動(dòng)駕駛汽車(AV)開發(fā)的專用數(shù)據(jù)即將推出,這些數(shù)據(jù)將包括來自美國1,000多個(gè)城市和歐洲二十多個(gè)國家的多樣化交通場(chǎng)景的20秒剪輯,這對(duì)于訓(xùn)練自動(dòng)化駕駛非常珍貴。開源地址:??http...
2025-04-09 10:26:34 1214瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天凌晨4點(diǎn),著名大模型訓(xùn)練平臺(tái)TogetherAI和智能體平臺(tái)Agentica,聯(lián)合開源了新模型DeepCoder14BPreview。該模型只有140億參數(shù),但在知名代碼測(cè)試平臺(tái)LiveCodeBench的測(cè)試分為60.6%,高于OpenAI的o1模型(59.5%),略低于o3mini(60.9%)。在Codeforces、AIME2024上的評(píng)測(cè)數(shù)據(jù)同樣非常出色,幾乎與o1、o3mini差不多。值得一提的是,TogetherAI不僅開源了DeepCoder14B模型權(quán)重,還把訓(xùn)練數(shù)據(jù)集、訓(xùn)練方法、訓(xùn)練日志和優(yōu)化方法全...
2025-04-09 10:23:50 963瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天凌晨1點(diǎn)半,Meta生成式AI領(lǐng)導(dǎo)者AhmadAlDahle在社交平臺(tái)發(fā)布了一篇長文,對(duì)前天剛開源的Llama4質(zhì)疑進(jìn)行了官方回應(yīng)。Ahmad表示,Llama4一開發(fā)完就發(fā)布了,所以,不同服務(wù)中模型質(zhì)量難免會(huì)有一些差異。Meta很快會(huì)修復(fù)這些漏洞提升性能。同時(shí)否認(rèn)在測(cè)試集上進(jìn)行了預(yù)訓(xùn)練。但Meta在官網(wǎng)發(fā)布時(shí)特意點(diǎn)名DeepSeek,說他們新開源的Llama4Maverick在代碼能力可以比肩其新開源的V3模型,國內(nèi)不少知名媒體也以此為噱頭來寫標(biāo)題?,F(xiàn)在看...
2025-04-08 09:27:16 1421瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
上周四,OpenAI宣布其AgentSDK支持MCP之后,在智能體賽道產(chǎn)生了巨大影響,功能、開發(fā)流程都有了質(zhì)的改變。并且OpenAI的桌面版ChatGPT、API也很快支持MCP。但很多人不知道去哪里找這些高效、實(shí)用的MCP服務(wù)。今天「AIGC開放社區(qū)」就為大家盤一盤,包括瀏覽器、數(shù)據(jù)庫、文件系統(tǒng)、論文搜索、金融分析、游戲、知識(shí)檢索、定位服務(wù)、網(wǎng)絡(luò)安全等100多個(gè)開源MCP,無限擴(kuò)展智能體武器庫,打造自己的Manus。目前,這個(gè)開源MCP合集算是gith...
2025-03-31 09:41:43 2664瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
微軟、清華的研究人員聯(lián)合發(fā)布了SECOM,一種專用于個(gè)性對(duì)話Agent的記憶構(gòu)建和檢索的創(chuàng)新方法。研究人員在LOCOMO和LongMTBench+兩個(gè)超復(fù)雜數(shù)據(jù)集上進(jìn)行了綜合評(píng)估。LOCOMO數(shù)據(jù)集的對(duì)話平均長度超過300輪,包含約9000個(gè)標(biāo)記的對(duì)話片段,是目前最長的對(duì)話數(shù)據(jù)集之一。LongMTBench+則通過合并多個(gè)會(huì)話構(gòu)建更長的對(duì)話,平均包含約65輪對(duì)話。結(jié)果顯示,LOCOMO數(shù)據(jù)集上,SECOM的GPT4Score達(dá)到71.57,比全歷史方法高出17.42分,比輪次級(jí)...
2025-03-31 09:34:59 894瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
加州大學(xué)伯克利分校、蘇黎世聯(lián)邦理工學(xué)院等多所高校的研究人員,深入剖析了大模型在執(zhí)行Agent任務(wù)時(shí)面臨的困境——過度思考。為了量化這種行為,研究人員開發(fā)了一套系統(tǒng)評(píng)估框架,并通過4018條軌跡分析發(fā)現(xiàn),高推理努力配置的模型雖然解決了29.1%的問題,但成本高達(dá)1400美元;而低推理努力配置則以3.5倍更低的成本達(dá)到了21.0%的成功率。此外,生成兩個(gè)低推理解決方案并選擇其中一個(gè)具有較低過度思考得分的方法,實(shí)現(xiàn)了27.3%的解...
2025-03-26 10:58:20 1053瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天凌晨2點(diǎn),OpenAI進(jìn)行了技術(shù)直播,對(duì)GPT4o和Sora進(jìn)行了重大更新,提供了全新文生圖模型。除了文生圖之外,該模型還支持自定義操作、連續(xù)發(fā)問、風(fēng)格轉(zhuǎn)換、圖像PPT等超實(shí)用功能,例如,更改圖片的寬高比、圖像物體中的角度,用十六進(jìn)制代碼指定精確顏色等。尤其是生成圖像的逼真度,肉眼幾乎看不出任何破綻,在精細(xì)度、細(xì)節(jié)和文本遵循方面非常出色,可以媲美甚至在某些功能超過該領(lǐng)域的頭部平臺(tái)Midjourney。新圖像模型功能展示...
2025-03-26 10:54:54 1282瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
昨晚,國內(nèi)著名大模型平臺(tái)DeepSeek開源了V3模型的最新版本0324。不過DeepSeek相當(dāng)?shù)驼{(diào),國內(nèi)的公眾號(hào)、國外的社交平臺(tái)沒有做任何宣傳,就是“悄悄”地把模型上傳到huggingface。根據(jù)國外網(wǎng)友測(cè)試顯示,V30324最大亮點(diǎn)之一就是代碼能力,只需要簡單的文本提示就能快速開發(fā)各種網(wǎng)站、App,可以比肩目前全球最強(qiáng)的閉源代碼模型Claude3.7Sonnet思維鏈版本。但V30324是開源且免費(fèi)的,推理效率更快。開源地址:https:huggingface.code...
2025-03-25 10:35:10 1193瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
全球AI領(lǐng)導(dǎo)者英偉達(dá)在“GTC2025”開發(fā)者大會(huì)上宣布,開源人形機(jī)器人通用大模型GR00TN1。該模型能夠處理多模態(tài)數(shù)據(jù),包括語言、圖像、視頻,可在家務(wù)、工廠等多樣化環(huán)境中執(zhí)行復(fù)雜操作任務(wù)。值得一提的是,GR00TN1的核心架構(gòu)采用了模擬人類思維的“快慢思考”模式,可以讓機(jī)器人的做法、思維更像人類,從而提升動(dòng)作指令準(zhǔn)確率。開源地址:https:huggingface.convidiaGR00TN12BGR00TN1的核架構(gòu)的設(shè)計(jì)靈感來源于人類的快慢思維處理...
2025-03-20 10:39:11 1347瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天凌晨,知名大模型訓(xùn)練、開發(fā)平臺(tái)Predibase發(fā)布了,首個(gè)端到端強(qiáng)化微調(diào)平臺(tái)(RFT)。與傳統(tǒng)的監(jiān)督式微調(diào)相比,RFT不依賴大量的標(biāo)注數(shù)據(jù),而是通過獎(jiǎng)勵(lì)和自定義函數(shù)來完成持續(xù)的強(qiáng)化學(xué)習(xí),同時(shí)支持無服務(wù)器和端到端訓(xùn)練方法,從數(shù)據(jù)管理、訓(xùn)練模型到應(yīng)用部署可以在同一個(gè)平臺(tái)全部完成。也就是說,你只需要一個(gè)瀏覽器,設(shè)定微調(diào)目標(biāo)、上傳數(shù)據(jù)、就能完成以前非常復(fù)雜的大模型微調(diào)流程。在線體驗(yàn)地址:https:predibase.comreinf...
2025-03-20 10:36:16 1476瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
AMD在官網(wǎng)開源了最新小參數(shù)模型Instella3B。比較特別的是,這是一個(gè)基AMDInstinct?MI300XGPU從頭訓(xùn)練的模型。根據(jù)測(cè)試數(shù)據(jù)顯示,Instella3B的性能超過了Llama3.23B、Gemma22B,可以媲美阿里開源的Qwen2.53B,這也證明了AMD的GPU也能訓(xùn)練出高性能的大模型。開源地址:https:huggingface.coamdInstella3BInstella3BSFT是經(jīng)過監(jiān)督微調(diào)的模型,使用了89.02億tokens的數(shù)據(jù),增強(qiáng)了遵循指令的能力。Instella3BInstruct則是經(jīng)過直接偏...
2025-03-19 12:06:37 1225瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天凌晨,全球AI領(lǐng)導(dǎo)者英偉達(dá)(Nvidia)在美國圣何塞舉辦了“GTC2025”全球產(chǎn)品、開發(fā)者大會(huì),涵蓋大模型、AIAgent、實(shí)體機(jī)器人、AI專用芯片、量子計(jì)算等技術(shù)分享。其中,英偉達(dá)在官網(wǎng)宣布與Oracle(甲骨文)達(dá)成技術(shù)合作,提供160多種原生AI工具和100多個(gè)微服務(wù),幫助企業(yè)構(gòu)建超復(fù)雜、無縫銜接的Agent應(yīng)用,將復(fù)雜、重復(fù)的數(shù)字業(yè)務(wù)實(shí)現(xiàn)自動(dòng)化。還開源了一個(gè)專用于Agent的基礎(chǔ)模型LlamaNemotron,目前,微軟、埃森哲、德勤、SA...
2025-03-19 12:02:26 1305瀏覽 0點(diǎn)贊 0回復(fù) 0收藏