自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

NLP工作站
LV.3
AIGC前沿知識分享&落地經(jīng)驗(yàn)總結(jié)
聲望 355
關(guān)注 0
粉絲 0
私信
主帖 42
回帖
下面是我前段時間跟一位群友的對話:群友:我最近有都需要進(jìn)行模型微調(diào),但是每個任務(wù)模型調(diào)完之后都對單一任務(wù)有明顯提高,但如果合在一起訓(xùn)練的話,效果又達(dá)不到最佳。所以在使用階段,部署了多個模型,但是顯卡資源真的吃不消,有什么好的解決辦法嗎?我:你是Lora微調(diào),還是全量參數(shù)微調(diào)的。群友:Lora微調(diào),全量參數(shù)微調(diào),也沒那么多訓(xùn)練資源。我:你既然是Lora微調(diào),那么你在部署的時候,可以只部署一個底座模型,然后多...
8天前 574瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
MetaAI發(fā)布了Llama4模型,終于來啦!開源社區(qū)也是等了很久。本次共兩系列模型Scout和Maverick模型,兩個模型均為MoE架構(gòu)模型,DeepSeek得含金量還在提高,哈哈哈!榜單效果反正是杠杠滴。HF模型路徑:https:huggingface.cocollectionsmetallamallama467f0c30d9fe03840bc9d0164模型的總體信息如上圖所示,模型MoE架構(gòu)中,無論是Scout還是Maverick,激活的路由專家數(shù)據(jù)均為1,有點(diǎn)奇怪,之前MoE架構(gòu)一般激活路由專家數(shù)據(jù)都是2或更...
2025-04-09 07:07:26 1174瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
國內(nèi)Qwen是汪峰,國外Google是汪峰,昨天Google更新,放出新模型Gemini2.5Pro,凌晨OpenAI更新GPT4o,上新圖像生成功能,難受住了。GPT4o沒測,但是網(wǎng)上的效果也太好了吧,倒影啥的都太自然了吧。。這篇主要測試Gemini2.5Pro的能力,整體測試通過Google的AIStudio上測試,每天免費(fèi)50次,正常使用夠了,爽玩還是不夠的。https:aistudio.google.comGemini2.5Pro在Benchmark上效果還是很好的,甚至在lmsys的對戰(zhàn)榜單上,現(xiàn)在是第一...
2025-03-27 07:57:17 1206瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今早看到了百度文心大模型4.5和X1可以免費(fèi)使用啦!之前說4月1號免費(fèi),這提前半個月,估計是最近大模型廠商一直都在開源,壓力太大了!話說回來,2025年是真卷,幾乎每一周都有新東西,也都有爆款。之前我是隨機(jī)更,現(xiàn)在都變成日更啦!文心4.5是個多模態(tài)大模型,可以對文字、圖片、音頻、視頻等內(nèi)容進(jìn)行綜合理解。文心X1是深度思考的推理大模型,但支持多模態(tài)和工具使用,具有更強(qiáng)的理解、規(guī)劃、反思、進(jìn)化的能力。從榜單上看效...
2025-03-17 01:11:39 1733瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天給大家?guī)硪黄接懘竽P皖A(yù)訓(xùn)練與微調(diào)之間關(guān)系的文章,主要通過微調(diào)預(yù)訓(xùn)練階段各個checkpoint,來發(fā)現(xiàn)預(yù)訓(xùn)練本身或?qū)ο掠挝⒄{(diào)有哪些影響。大模型在預(yù)訓(xùn)練過程中的性能如何變化?更多步數(shù)的預(yù)訓(xùn)練對下游微調(diào)有何影響?大模型微調(diào)學(xué)到了什么,又忘記了什么?Paper:https:arxiv.orgabs2408.06663由于目前開源模型中,開放全量checkpoints的模型較少,并且實(shí)驗(yàn)成本較大,以下分析結(jié)果主要基于OLMo1B模型(同時訓(xùn)練細(xì)節(jié)、預(yù)訓(xùn)練...
2025-03-05 10:55:09 1681瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
言簡意賅,發(fā)現(xiàn)月之暗面開源MoE模型,總參數(shù)量15.29B,激活參數(shù)2.24B,使用Muon優(yōu)化器,在5.7TTokens的訓(xùn)練數(shù)據(jù)下,拿到了很好的效果。Github:https:github.comMoonshotAIMoonlightHF:https:huggingface.comoonshotaiMoonlight16BA3BPaper:https:github.comMoonshotAIMoonlightblobmasterMoonlight.pdf效果如下:比較Muon和Adam的擴(kuò)展定律實(shí)驗(yàn),發(fā)現(xiàn)Muon的樣本效率比Adam高2倍。Muon優(yōu)化器原理如下:同時,Moonlight16BA3B的...
2025-02-25 12:49:10 1867瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
最近DeepSeekR1蒸餾太火了,昨天在群里跟群友們問白嫖R1接口的事情,想著多點(diǎn)搞免費(fèi)額度蒸餾一波滿血版DeepSeekR1,來做做試驗(yàn)。結(jié)果一個小伙伴,跟我講,他們(無問芯穹)的滿血版DeepSeekR1API是免費(fèi)調(diào)用的,不僅如此,還有DeepSeekV3、Deepseek蒸餾版本模型R1DistillQwen32b也是免費(fèi)的。當(dāng)然,現(xiàn)在DeepSeek流量真的爆炸,公眾號標(biāo)題帶DeepSeek流量都會更高一些,算是現(xiàn)象級模型了。在這里為春節(jié)期間同樣努力奮斗,放出新模型...
2025-02-17 07:26:05 2564瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天看到vLLM的朋友圈發(fā)布了DeepSeekR1的PP支持,立刻開始我的搗鼓之旅,假如我訓(xùn)練的超大MoE上線了,也得做好技術(shù)準(zhǔn)備工作是不嘛。把踩坑經(jīng)驗(yàn)給大家分享一下,希望能夠相比于官方文檔更白話一點(diǎn)。DistributedInferenceandServing:https:docs.vllm.aienlatestservingdistributedserving.htmlrunningvllmonmultiplenodes知乎游凱超說一定要讓整個過程變得絲滑無比,我倆配合做了幾個驗(yàn)證,現(xiàn)在應(yīng)該只需要Step0和Step3就可以run起...
2025-02-06 15:33:59 6277瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
大家好,我是劉聰NLP。就在今晚,Kimi發(fā)布了最新模型k1.5,先來看榜單效果,簡直爆炸。在長推理上,k1.5在數(shù)學(xué)能力上,無論是純文本還是視覺多模態(tài)上,都遠(yuǎn)超openai的o1模型;在codeforces與其持平,LiveCode上略差,但相比于QVQ和QWQ有較大的優(yōu)勢。在短推理上,k1.5的數(shù)學(xué)能力真實(shí)遙遙領(lǐng)先,無論是gpt4o還是claude3.5sonnet都遠(yuǎn)不如k1.5,尤其是在AIME榜單上,k1.5有60.8,而最高的deepseekv3只有39.2,堪稱斷層式碾壓。這個應(yīng)...
2025-01-22 13:33:53 3123瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
大家好,我是劉聰NLP。前段時間一直都在嘗試用多模態(tài)大模型進(jìn)行落地應(yīng)用,除了問答之外,那么最容易想到的就是文檔解析了。一來多模態(tài)大模型本身就有強(qiáng)大的OCR功能,二來知識加工對于大模型落地來說也是重中之重,三來現(xiàn)在很多文檔拆解的API或者項(xiàng)目,效果都沒有那么理想吧,比如:夾雜公式的文本、復(fù)雜表格等。思路是不是很正,于是乎我就嘗試用多模態(tài)大模型進(jìn)行表格解析的任務(wù)了。結(jié)果就是:全是眼淚!痛,太痛了!今天此貼主...
2025-01-14 12:31:34 1551瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天給大家?guī)硪黄鹾糜裩adiii的一篇文章,匯總Llama3.1、DeepSeekV3、TüLU3和Qwen2.5的后訓(xùn)練PostTraining技術(shù)。知乎:https:zhuanlan.zhihu.comp12862210431本文匯總Llama3.1,DeepSeekV3,TüLU3,Qwen2.5報告的后訓(xùn)練部分,摘錄其中核心的細(xì)節(jié)。大多涉及到數(shù)據(jù),SFT,RL(各種RM訓(xùn)練,DPO,GRPO,RLVR等等)。1.Llama3.1paper:https:ai.meta.comresearchpublicationsthellama3herdofmodelsIllustrationoftheoverallpos...
2025-01-03 14:05:37 2425瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
大家好,我是劉聰NLP。沒錯,是的,對的,很棒,千問!QWQ之后,千問團(tuán)隊(duì)又開源了視覺推理大模型QVQ,是72B的呦。圣誕快樂,如期而至!HF:https:huggingface.coQwenQVQ72BPreview為啥是72B,可想而知,這個QVQ就是基于前一段時間開源的Qwen2VL72B模型上進(jìn)一步訓(xùn)練得來的。有個7B的為啥沒出QVQ7B,估計是參數(shù)來太少,做o1式推理效果不行,QWQ也是32B起步的,所以模型參數(shù)量很關(guān)鍵。在榜單上的效果,QVQ在MMMU是突破了70,并且整...
2024-12-25 12:12:27 2344瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
模型概述Megrez3BOmni是由無問芯穹研發(fā)的端側(cè)全模態(tài)理解模型,基于無問大語言模型Megrez3BInstruct擴(kuò)展,同時具備圖片、文本、音頻三種模態(tài)數(shù)據(jù)的理解分析能力,具體模型參數(shù)如下表所示。Megrez3BOmni在并未犧牲模型的文本處理能力的前提下,在三個模態(tài)上相較于同等參數(shù)模型,均取得較好的效果。圖源:https:internvl.github.ioblog20241205InternVL2.5注意:下面的文本、圖像、語音評測均基于https:huggingface.cospacesInfini...
2024-12-17 13:06:53 3343瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
在看了OpenAI的直播,精讀了字節(jié)論文,以及和知乎真中合歡激烈辯論后。我對RFT(ReinforcementFineTuning)也有了一些自己的認(rèn)知,這篇文章給大家分享一下我的理解。首先給出我的結(jié)論:RFT并不是新的技術(shù)范式,而是PPO技術(shù)范式下的新應(yīng)用范式,RFT相比于傳統(tǒng)PPO的創(chuàng)新點(diǎn)是rulebasedrewardmodel。疊甲聲明:RFT屬于應(yīng)用范式,RFT依賴的是rulebasedrewardmodel,這兩個觀點(diǎn)屬于個人看法,如有不對,還望輕噴。至于“dozensofdata”...
2024-12-13 13:10:40 2192瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
晚上發(fā)現(xiàn)kimi也更新了,之前網(wǎng)上流傳的kimi在數(shù)學(xué)上對標(biāo)o1的模型,可以測試了。感覺有點(diǎn)迫于deepseek的壓力了,本來應(yīng)該是國內(nèi)第一個的,長推理、類o1的模型,現(xiàn)在變成了第二個。模型版本叫k0math,在數(shù)學(xué)上的效果也是對標(biāo)openaio1,官方也僅僅表示說在數(shù)學(xué)能力上較強(qiáng)。來自官方帖子https:mp.weixin.qq.comsg4DltigncX4sfaQ6Qn1zA但我非要測試看看在文本推理上的效果如何。測試界面是側(cè)邊欄的小眼鏡圖標(biāo),進(jìn)來直接就可以測試,...
2024-11-27 15:42:21 1923瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
最近學(xué)強(qiáng)化的過程中,總是遇到“拒絕采樣”這個概念,我嘗試科普一下,爭取用最大白話的方式讓每個感興趣的同學(xué)都理解其中思想。拒絕采樣是LLM從統(tǒng)計學(xué)借鑒過來的一個概念。其實(shí)大家很早就接觸過這個概念,每個刷過leetcode的同學(xué)大概率都遇到過這樣一個問題:“如何用一枚骰子獲得17的概率?”答案很簡單:把骰子扔兩次,獲得6636種可能的結(jié)果,丟棄最后一個結(jié)果,剩下的35個結(jié)果平分成7份,對應(yīng)的概率值便為17。使用這種思想...
2024-11-20 15:21:30 2523瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天給大家?guī)硪黄逗唵螌?shí)現(xiàn)一個ChatGPT驅(qū)動的游戲》文章,來自知乎九號(已授權(quán))。今年四月份讀了斯坦福GenerativeAgent的論文,覺得特別好玩,花幾天時間實(shí)現(xiàn)了這個demo。后來拿著這個demo去參加hackathon,竟然拿了二等獎還幫我贏了1300多刀。最近提到這個demo,同事表示很有興趣,于是仔細(xì)整理了一下,分享給大家。知乎:https:zhuanlan.zhihu.comp664009161Github:https:github.comliyucheng09ChatGPTAgent0.讓LLM驅(qū)動...
2024-11-14 15:34:46 2175瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天突然發(fā)現(xiàn)騰訊開源混元大模型,十分震驚,騰訊也來擠開源賽道了,只能說大模型開源越來越繁華了。這次開源的主要是MoE模型,有Base模型和Instruct模型,總參數(shù)量389B,激活參數(shù)52B,支持最大上下文256K。Github:https:github.comTencentTencentHunyuanLargePaper:https:arxiv.orgpdf2411.02265HF:https:huggingface.cotencentTencentHunyuanLarge由于時間關(guān)系,還沒仔細(xì)的閱讀paper,掃了一眼指標(biāo),不知道為啥沒跟Qwen2.572B...
2024-11-07 15:15:54 2103瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
寫在前面前一陣子的開源和閉源之爭炒的比較火熱,之前一直想寫點(diǎn)什么,由于太懶就沒寫,但是最近開源模型真的太火爆了,前有Grok1、Mistral8x22、Llama3,后有Yi1.5、DeepseekV2、Qwen1.5110B,開源模型現(xiàn)在真的卷到飛起。今天簡單聊聊下面的幾點(diǎn)內(nèi)容,歡迎大家拍磚,給出不同看法:開源模型有哪些優(yōu)勢開源模型與閉源模型的差距會越大還是越小開源模型哪家強(qiáng)開源模型有哪些優(yōu)勢個人認(rèn)為,開源大模型是讓大模型行業(yè)卷起來的根源...
2024-11-04 11:05:42 2036瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
寫在前面今天智譜開了GLM49B的模型,不是6B,是9B。一共開源了四個模型,Base版本模型(GLM49B)、Chat版本模型(GLM49BChat和GLM49BChat1M)和多模態(tài)模型(GLM4V9BChat)。其中,模型為多語言模型除了支持中文、英文之外,還支持日語,韓語,德語在內(nèi)的26種語言;Chat系列模型支持網(wǎng)頁瀏覽、代碼執(zhí)行、自定義工具調(diào)用(FunctionCall)的能力;GLM4V9B模型支持中英雙語多輪對話能力。Github:https:github.comTHUDMGLM4HF:https:...
2024-10-29 12:26:46 2406瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
獲得成就
已積累 2.4w 人氣
獲得 0 個點(diǎn)贊
獲得 0 次收藏