DeepSeek-AI 發(fā)布 DeepSeek-R1-Zero 和 DeepSeek-R1 原創(chuàng) 精華
01、概述
近年來,大型語言模型(LLMs)在自然語言處理領(lǐng)域取得了令人矚目的進(jìn)展。它們在文本理解、生成和邏輯推理等任務(wù)中表現(xiàn)卓越。然而,面對復(fù)雜推理任務(wù)時(shí),這些模型仍然存在諸多挑戰(zhàn)。例如,依賴大規(guī)模監(jiān)督微調(diào)的方式雖然提升了模型性能,但限制了其可擴(kuò)展性和通用性。此外,如何平衡推理的復(fù)雜性、計(jì)算效率和結(jié)果可讀性,依然是研究者們需要攻克的難題。
在這一背景下,DeepSeek-AI團(tuán)隊(duì)帶來了令人耳目一新的解決方案——DeepSeek-R1,以強(qiáng)化學(xué)習(xí)(RL)為核心,重塑語言模型的推理能力。
02、打破瓶頸:DeepSeek-R1的兩大版本
DeepSeek-R1項(xiàng)目推出了兩個(gè)獨(dú)立版本,分別針對推理能力和多階段訓(xùn)練流程進(jìn)行了創(chuàng)新優(yōu)化:
- DeepSeek-R1-Zero:該版本完全基于強(qiáng)化學(xué)習(xí)訓(xùn)練,未使用任何監(jiān)督數(shù)據(jù),卻展現(xiàn)出卓越的推理行為,例如處理長鏈?zhǔn)剿季S(Chain-of-Thought, CoT)的能力。
- DeepSeek-R1:在Zero的基礎(chǔ)上進(jìn)一步發(fā)展,采用多階段訓(xùn)練流程,不僅保留了強(qiáng)大的推理能力,還解決了語言混雜和可讀性等問題,使模型更加貼近用戶需求。
這兩個(gè)版本均以實(shí)現(xiàn)模型的高可用性和擴(kuò)展性為目標(biāo),為AI推理能力的提升提供了新思路。
03、技術(shù)創(chuàng)新:讓推理更強(qiáng)大、更高效
1) 基于推理任務(wù)的強(qiáng)化學(xué)習(xí)
DeepSeek-R1-Zero通過強(qiáng)化學(xué)習(xí)方法,在沒有監(jiān)督數(shù)據(jù)的情況下優(yōu)化模型性能。其核心技術(shù)是Group Relative Policy Optimization(GRPO),這種方法評估多個(gè)輸出并進(jìn)行優(yōu)化,使模型在多項(xiàng)基準(zhǔn)測試中表現(xiàn)優(yōu)異。例如,在AIME 2024測試中,其pass@1得分從15.6%提升至71.0%。
2) 多階段訓(xùn)練流程
DeepSeek-R1采用了一種獨(dú)特的訓(xùn)練方法:
先利用數(shù)千個(gè)精心設(shè)計(jì)的鏈?zhǔn)剿季S(CoT)樣本對基礎(chǔ)模型進(jìn)行微調(diào)(稱為冷啟動(dòng)數(shù)據(jù))。
然后通過強(qiáng)化學(xué)習(xí)專注于推理能力的提升,并結(jié)合語言一致性獎(jiǎng)勵(lì),確保輸出既邏輯嚴(yán)謹(jǐn)又通俗易懂。
3) 小模型蒸餾技術(shù)
考慮到計(jì)算資源的限制,DeepSeek-AI團(tuán)隊(duì)通過蒸餾技術(shù),基于Qwen和Llama架構(gòu),從DeepSeek-R1中提煉出六個(gè)小型模型(參數(shù)量從1.5B到70B不等)。這些小模型雖體積更小,但保留了強(qiáng)大的推理能力。例如,14B蒸餾模型在AIME 2024中的pass@1得分高達(dá)69.7%,甚至超過了一些更大的模型。
04、成績亮眼:數(shù)據(jù)背后的卓越表現(xiàn)
DeepSeek-R1的卓越性能通過多個(gè)基準(zhǔn)測試得到了驗(yàn)證,涵蓋推理、編程及通用任務(wù)等多個(gè)領(lǐng)域。
推理能力測試
- AIME 2024:79.8%(pass@1),超越OpenAI的o1-mini模型。
- MATH-500:97.3%(pass@1),接近OpenAI-o1-1217的表現(xiàn)。
- GPQA Diamond:71.5%(pass@1),在基于事實(shí)的推理任務(wù)中表現(xiàn)出色。
編程及STEM任務(wù)
- Codeforces Elo評級:2029,超越96.3%的真人參賽者。
- SWE-Bench Verified:49.2%的問題解決率,與其他領(lǐng)先模型相媲美。
通用能力測試
- ArenaHard:92.3%勝率,展示出極強(qiáng)的泛化能力。
- AlpacaEval 2.0:87.6%勝率,再次證明了模型的全面性能。
蒸餾模型亮點(diǎn)
例如,DeepSeek-R1-Distill-Qwen-32B蒸餾模型,在AIME 2024中的pass@1得分達(dá)到72.6%,展現(xiàn)出蒸餾技術(shù)在性能與可擴(kuò)展性之間的優(yōu)秀平衡。
05、意義深遠(yuǎn):AI推理的新方向
DeepSeek-R1系列不僅推動(dòng)了推理能力的提升,還在開放性和實(shí)用性方面進(jìn)行了積極嘗試。其API(‘model=deepseek-reasoner’)以MIT許可協(xié)議的形式開放,為開發(fā)者和研究者提供了高效便捷的工具。
展望未來,DeepSeek-AI計(jì)劃進(jìn)一步優(yōu)化多語言支持、提升軟件工程能力,并改進(jìn)模型對不同任務(wù)的敏感性。這些努力旨在鞏固DeepSeek-R1在推理領(lǐng)域的地位,為AI應(yīng)對更復(fù)雜的挑戰(zhàn)奠定基礎(chǔ)。
06、結(jié)語
DeepSeek-R1的成功告訴我們,AI推理能力的提升,不僅依賴于技術(shù)創(chuàng)新,更需要全局視野與長期投入。從強(qiáng)化學(xué)習(xí)到蒸餾技術(shù),從開放源碼到實(shí)際應(yīng)用,DeepSeek-R1為行業(yè)樹立了標(biāo)桿。未來,AI是否能真正實(shí)現(xiàn)“深度推理”的愿景,我們拭目以待。
參考:
- ??https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf??
- ??https://huggingface.co/deepseek-ai/DeepSeek-R1??
- ??https://huggingface.co/deepseek-ai/DeepSeek-R1-Zero??
本文轉(zhuǎn)載自公眾號Halo咯咯 作者:基咯咯
