如果你玩過開源的Text2video,也就是文生視頻,也會(huì)感慨AI越來越能整活兒了,但是如果你好奇去各大平臺(tái)看一圈,基本上視頻最大就是在810秒左右,甚至有35秒的。(sora能到20秒)當(dāng)然有兄弟說是算力的問題,這個(gè)確實(shí)是一個(gè)問題,生成視頻diffusion的算力確實(shí)要比純text多,但是這個(gè)如果有錢也不是問題(后文我們發(fā)現(xiàn)其實(shí)就算有錢也是問題),但是現(xiàn)在我們談?wù)摰氖清X解決不了的問題,一致性。這個(gè)一致性指的是多幀一致性比如這個(gè)...
2天前 348瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
我見過的最省的GPT4o,Claude,Gemini2級(jí)別的模型,而且是國內(nèi)唯一有機(jī)會(huì)上桌的,其實(shí)海外目前和這三家有資格掰手腕的也只有它自己,可以負(fù)責(zé)任的說其他的模型不配上桌吃菜(Gemini上個(gè)月都沒資格)。其實(shí)性能好就不說了,DeepseekR1就還不錯(cuò),國內(nèi)講道理是第一家做inferencetimingscalinglaw的模型,阿里是第二家,其他的就不太值得談?wù)摿?,其?shí)國外也只有GPT和Google有資格,沒想到年底還能出個(gè)DeepseekV3,在傳統(tǒng)scalinglaw...
2025-04-16 07:55:06 1121瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
論文名稱KBLAM:KNOWLEDGEBASEAUGMENTEDLANGUAGEMODELICLR2025的論文,MS系的這篇論文介紹了一種名為KBLAM(KnowledgeBaseaugmentedLanguageModel,知識(shí)庫增強(qiáng)語言模型)的新方法,用于將外部知識(shí)庫(KB)高效地集成到預(yù)訓(xùn)練的大型語言模型(LLM)中,以提升其在特定任務(wù)中的表現(xiàn),同時(shí)避免傳統(tǒng)方法的局限性。核心問題與背景LLM雖然在知識(shí)和推理方面表現(xiàn)優(yōu)異,但當(dāng)需要處理超出其參數(shù)存儲(chǔ)知識(shí)的外部信息時(shí),往往需要額外的增強(qiáng)手...
2025-04-03 07:30:02 1219瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
我之前演示過幾個(gè)OpenManus的demo,其實(shí)也就是demo,包括manus,現(xiàn)在也就是demo階段,復(fù)雜的plan和flow,現(xiàn)在的代碼支撐和LLM的能力都有待改善,但是我們這期不是吐槽文章,是來把OpenManus給打開看看它的實(shí)現(xiàn)是怎么樣的,其實(shí)Manus也都差不多,甚至OWL也都差不多,我們看一個(gè)就夠了。其他的幾個(gè)目錄也沒啥特別需要看的,就看app。app里面有這么幾個(gè)結(jié)構(gòu):1agent沒啥好解釋的2flow就是來做multiagent的planning和管理任務(wù)框架的...
2025-03-25 00:31:21 1456瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
總結(jié),模型門戶留給GPT5去做了,4.5還是像Altman之前說的就是最后一代純預(yù)訓(xùn)練。1一個(gè)超巨大的模型,grok3級(jí)別(10萬卡),AK說每個(gè)0.5要提升10倍預(yù)訓(xùn)練算力,那對(duì)比GPT4的1.8T,也就說4.5是一個(gè)18T(18000B)級(jí)別的模型,所以必須跨多campus,異步梯度下降的訓(xùn)練方式(要求太高,這個(gè)目前只有g(shù)rok,oai,gemini,3家真正嚴(yán)格實(shí)踐過,anthropic都不行)。2擁有更多的知識(shí)(o3和人類比如博士生做題的合成數(shù)據(jù)),比4o能力提升百分之50(其實(shí)...
2025-03-12 00:22:42 1388瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
其實(shí)我這個(gè)問題不算瞎問。在你的項(xiàng)目里,你是真覺得GraphRAG有用,還是就圖個(gè)新鮮勁,這個(gè)是非常重要的思考。RAG能干啥,其實(shí)不用復(fù)雜的解釋了。傳統(tǒng)的方式就是基于向量余弦近似度的查找,當(dāng)然BM25其實(shí)也是傳統(tǒng)RAG(別把它當(dāng)新東西),常見一點(diǎn)的基本都有向量查找,或者向量+BM25關(guān)鍵字集成查找,為了方便我就畫向量的了。如下圖:通用LLM里不太存在專用領(lǐng)域的知識(shí),RAG可以作為外掛知識(shí)庫的補(bǔ)充,補(bǔ)充新的知識(shí),另外有些問題,...
2025-02-27 13:11:25 1541瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
有點(diǎn)意思的論文2410.13639ACOMPARATIVESTUDYONREASONINGPATTERNSOFOPENAI’SO1MODEL簡而言之就是曼徹斯特大學(xué),浙大和中科大還有一些開源的項(xiàng)目組一些一起研究OpenAIO1的人,來發(fā)O1為什么牛B的論文。正常,研究紅樓夢(mèng)畢竟也有紅學(xué)(我是一集紅樓夢(mèng)也沒看過,書和電視都沒看過)。。。文章主要講分析猜測和評(píng)估OpenAI的推理模式在不同任務(wù)上的效果。同時(shí)也利用不同的模型比如GPT4o,Gemma,LLama,Qwen等嘗試?yán)梅治龀鰜淼腛1的推...
2025-02-19 09:11:43 1489瀏覽 0點(diǎn)贊 0回復(fù) 0收藏