自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

數(shù)據(jù)不夠?Meta剛剛發(fā)布的Llama 3.3正好拿來(lái)搞定! 原創(chuàng)

發(fā)布于 2024-12-9 17:25
瀏覽
0收藏

編輯 | 言征

出品 | 51CTO技術(shù)棧(微信號(hào):blog51cto)

7日凌晨,Meta 推出了 Llama 3.3。雖然參數(shù)沒(méi)有太高,只有700億參數(shù),但與之前開(kāi)源的Llama 3.1 4050億參數(shù)模型性能相當(dāng),而推理、部署成本卻降低了很多。

例如,輸入成本降低了10倍,輸出成本降低了近5倍。

此外,這款多語(yǔ)言 LLM,旨在重新定義 AI 在合成數(shù)據(jù)生成中的作用。Llama 3.3 擁有 700 億個(gè)參數(shù),其性能與之前的 405B 型號(hào)一樣,但針對(duì)效率和可訪問(wèn)性進(jìn)行了優(yōu)化。

數(shù)據(jù)不夠?Meta剛剛發(fā)布的Llama 3.3正好拿來(lái)搞定!-AI.x社區(qū)圖片

其多語(yǔ)言輸出支持多種語(yǔ)言,包括印地語(yǔ)、葡萄牙語(yǔ)和泰語(yǔ),使世界各地的開(kāi)發(fā)人員能夠?yàn)閷iT(mén)的 AI 模型創(chuàng)建自定義數(shù)據(jù)集。

“隨著我們繼續(xù)探索新的后訓(xùn)練技術(shù),今天我們發(fā)布了 Llama 3.3——一種新的開(kāi)源模型,它在基于文本的使用案例(例如合成數(shù)據(jù)生成)中提供領(lǐng)先的性能和質(zhì)量,而推理成本只是其中的一小部分,”Meta 在 X 上分享道。

1.推動(dòng)合成數(shù)據(jù)的生成

開(kāi)發(fā)人員現(xiàn)在可以使用其擴(kuò)展的 128k 令牌上下文長(zhǎng)度來(lái)生成大量高質(zhì)量的數(shù)據(jù)集,從而解決隱私限制和資源限制等挑戰(zhàn)。

Meta 的 AI 主管 Yann LeCun 此前表示,這種能力可以在低資源語(yǔ)言中實(shí)現(xiàn)創(chuàng)新,印度企業(yè)家 Nandan Nilekani 也表達(dá)了同樣的觀點(diǎn)。“印度應(yīng)該專注于快速構(gòu)建小型的、特定于用例的模型,”Nilekani 說(shuō),并強(qiáng)調(diào)了 Llama 在為印度語(yǔ)模型生成定制訓(xùn)練數(shù)據(jù)方面的關(guān)鍵作用。

這種方法的成功在 Sarvam AI 的 Sarvam 2B 等項(xiàng)目中顯而易見(jiàn),它通過(guò)利用 Llama 生成的合成數(shù)據(jù),在 Indic 任務(wù)中優(yōu)于大型模型。

Meta 的 ML 工程師 Hamid Shojanazeri 表示,合成數(shù)據(jù)生成解決了收集真實(shí)世界數(shù)據(jù)集成本太高或不可行的領(lǐng)域的關(guān)鍵瓶頸?!昂铣蓴?shù)據(jù)對(duì)于在隱私敏感領(lǐng)域或資源匱乏的語(yǔ)言中推進(jìn) AI 至關(guān)重要,”他補(bǔ)充道。憑借其 RLHF 調(diào)優(yōu)和監(jiān)督微調(diào),Llama 3.3 為需要高精度的任務(wù)生成指令對(duì)齊的數(shù)據(jù)集。

像 Sarvam AI 和 Ola Krutrim 這樣的印度初創(chuàng)公司已經(jīng)從 Llama 的能力中受益。Sarvam AI 在 2 萬(wàn)億個(gè)合成 Indic 代幣上訓(xùn)練的 2B 模型展示了這些數(shù)據(jù)如何有效地訓(xùn)練更小的專用模型,同時(shí)保持高性能。

“如果你看一下印度語(yǔ)言中的 1000 億個(gè)令牌,我們用了一種聰明的方法來(lái)創(chuàng)建合成數(shù)據(jù),以使用 Llama 3.1 405B 構(gòu)建這些模型。我們?cè)谟《鹊?1024 臺(tái) NVIDIA H100 上訓(xùn)練了模型,只用了 15 天,“Sarvam AI 首席執(zhí)行官 Vivek Raghavan 在接受 AIM 采訪時(shí)說(shuō)。

同樣,Llama 3.3 的多語(yǔ)言支持和可擴(kuò)展性使其成為彌合代表性不足的語(yǔ)言數(shù)據(jù)鴻溝不可或缺的工具。

Llama 3.3 支持合成數(shù)據(jù)生成的能力超越了小眾用例,促進(jìn)了開(kāi)發(fā)人員、教育工作者和企業(yè)的廣泛采用。“通過(guò)降低生成高質(zhì)量訓(xùn)練數(shù)據(jù)的成本,Llama 加速了全球創(chuàng)新,”Meta 生成式 AI 副總裁 Ahmad Al-Dahle 說(shuō)。

數(shù)據(jù)不夠?Meta剛剛發(fā)布的Llama 3.3正好拿來(lái)搞定!-AI.x社區(qū)圖片

隨著對(duì) GPT-4.5 的猜測(cè)愈演愈烈,Llama 3.3 果斷介入以滿足開(kāi)發(fā)人員的即時(shí)需求。憑借其革命性的合成數(shù)據(jù)生成方法和成本效益,很明顯,Llama 3.3 不僅填補(bǔ)了空白,而且樹(shù)立了新標(biāo)準(zhǔn)。

“我的合成數(shù)據(jù)成本下降了 30 倍,”KissanAI 的聯(lián)合創(chuàng)始人 Pratik Desai 在 X 上說(shuō)。

2.Llama3.3:后訓(xùn)練微調(diào)

這里簡(jiǎn)單介紹一下Llama3系列的模型發(fā)布版本和節(jié)奏。大家就能理解Llama3.3-70B-Instruct在Llama系列的地位和目標(biāo)。

目前,Llama3系列包含了4個(gè)不同的版本,分別是2024年4月份發(fā)布的Llama3系列、2024年7月份發(fā)布的Llama3.1系列、2024年9月份發(fā)布的Llama3.2系列以及2024年12月初發(fā)布的這個(gè)3.3系列。

但是,其實(shí)Llama3和Llama3.1算是比較正常的大版本節(jié)奏,因?yàn)檫@兩個(gè)系列都包含了最小80億參數(shù),最大700億以及4050億參數(shù)規(guī)模的多個(gè)不同版本模型。

而Llama3.2系列其實(shí)只發(fā)布了1B和3B的小規(guī)模純文本語(yǔ)言模型以及11B和90B的多模態(tài)版本,基本上算是Llama3.1的補(bǔ)充。

本次發(fā)布的Llama3.3-70B-Instruct官方也介紹說(shuō)是后訓(xùn)練技術(shù)的迭代,這意味著其基座模型可能還是Llama3.1-70B,只是用不同的后訓(xùn)練或者指令微調(diào)技術(shù)迭代獲得的。

3.為 Llama 4 奠定基礎(chǔ)

Llama 3.3 的發(fā)布完全符合 Meta 的長(zhǎng)期 AI 戰(zhàn)略。正如扎克伯格在 Meta 的第三季度財(cái)報(bào)電話會(huì)議上透露的那樣,即將于 2025 年初推出的 Llama 4 將引入“新模式、更強(qiáng)的推理和更快的功能”。這表明,在 Llama 3.3 中改進(jìn)的合成數(shù)據(jù)生成功能在未來(lái)的迭代中可能會(huì)變得更加強(qiáng)大。

Meta 的副總裁 Ragavan Srinivasan 最近暗示了未來(lái) Llama 模型“基于內(nèi)存的編碼和跨模態(tài)支持應(yīng)用程序”的進(jìn)步。Llama 3.3 的合成數(shù)據(jù)功能建立的強(qiáng)大框架可能是這些發(fā)展不可或缺的一部分。通過(guò)使開(kāi)發(fā)人員能夠生成特定領(lǐng)域的訓(xùn)練數(shù)據(jù)集,Meta 將自己定位為私營(yíng)和公共部門(mén)創(chuàng)新的關(guān)鍵推動(dòng)者。

未來(lái)的 Llama 版本可能會(huì)支持更廣泛的語(yǔ)言和專業(yè)用例。隨著合成數(shù)據(jù)生成成為 AI 開(kāi)發(fā)的核心,Llama Guard 3 等工具和增強(qiáng)的標(biāo)記化方法將確保安全、負(fù)責(zé)任地使用。

開(kāi)源地址:https://huggingface.co/meta-llama/Llama-3.3-70B-Instruct參考鏈接:https://analyticsindiamag.com/ai-origins-evolution/fine-tuning-is-dead-long-live-reinforcement-fine-tuning/

本文轉(zhuǎn)載自51CTO技術(shù)棧,作者:言征

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請(qǐng)注明出處,否則將追究法律責(zé)任
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦