自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

量化成為時代標準!AI大神賈揚清銳評Llama3.1:很難盈利、成本巨高、速度卻馬馬虎虎

原創(chuàng) 精選
人工智能
量化模型的時代已經(jīng)來了!至于原因,小編認為有兩點:一、大模型側(cè)訓(xùn)練所需的數(shù)據(jù)和算力已經(jīng)出現(xiàn)了增長瓶頸,二、在盈利之前,絕大多數(shù)開發(fā)者難以負擔大參數(shù)規(guī)模的成本。

編輯 | 言征

出品 | 51CTO技術(shù)棧(微信號:blog51cto)

不管開源還是閉源模型,最近量化小模型的風(fēng)頭正在蓋過大模型!

就在Llama3.1昨天正式發(fā)布以后,市面上一片興奮:開源模型可以比肩GPT-4o,國內(nèi)幾乎所有供應(yīng)商紛紛宣布接入Llama3.1的同時,我們也看到了圈內(nèi)人士另一種聲音:

“405B模型太大了”、“難以盈利、成本很高、速度一般?!?/p>

緊接著,素以小模型著稱的Mistral AI也再一次用實力證明:Llama3.1真沒必要那么“參數(shù)浪費”!

其今天剛剛發(fā)布的最新模型Mistral Large 2,參數(shù)只有123B,用不到三分之一的參數(shù)量性能就可以媲美Llama 3.1 405B,也不遜于GPT-4o、Claude 3 Opus等閉源模型。

這讓“大模型頂流er”們哪里說理去!

圖片圖片

1.AI大神、博主:模型太大不會被采用!量化才是正解!

事實真相就是這樣。

AI大神賈揚清今天發(fā)推文表示:Llama 3.1 405B 確實是一款難以盈利的機型。

如果你用一臺或半臺機器去運行Llama3.1 405B,就會發(fā)現(xiàn)成本significant(巨高),速度卻so-so(馬馬虎虎)。

那好,既然自己運行太高,我調(diào)用云廠商的接口還不行嗎?

圖片圖片

賈揚清又幫各位大模型愛好者們算了一筆賬,目前大多數(shù)供應(yīng)商調(diào)用405B的定價保持在30個tokens/s左右,才能覆蓋住商業(yè)價值。對比來看,70B模型則更實惠多了,能達到150tokens/s以上。

圖片圖片

不過賈揚清,表示即便405B的性價比不高,“但依然可以收支平衡,這取決于良好的優(yōu)化和良好的工作量飽和度”,并同時提醒VC朋友們:“對于這個價格的純API服務(wù),不要期望像傳統(tǒng)SaaS那樣獲得80%的利潤率。”

這還沒完,大神賈揚清最后下結(jié)論了:量化(模型)將成為標準! 忘掉FP16吧,Int8/FP8才是出路!PS:Int8/FP8是指更小的神經(jīng)張量的數(shù)值類型,代表著大模型所需的空間資源和算力資源。

并給出了一定的量化建議:量化需要謹慎。一個尺度足以處理整個張量的時代一去不復(fù)返了,而是需要進行channel/group的量化,以保證質(zhì)量不會下降。

同時,賈揚清還預(yù)測405B會因為速度和價格的原因,采用和接受度會受到持續(xù)的影響。當然也Cue到了Mistral Large 2(123B),非常期待業(yè)內(nèi)的測試效果。

NLP博主“劉聰NLP”也表示對于Llama3.1的成本有一種無力感:對于絕大多數(shù)開發(fā)者,Llama3.1的8B和70B版本的能力的提高才更有意義。

圖片圖片

劉聰指出:405B即使效果很棒,但是有多少企業(yè)有資格玩一把呢?個人玩家就更不用說了,光模型大小就820G,別說有沒有顯卡,也許都沒有820G磁盤空間下載都沒資格,太難了!

圖片

2.OpenAI也發(fā)現(xiàn)了這一點奧特曼不禁夸贊GPT-4o mini登頂

奧特曼也開始注意到mini模型更受開發(fā)者歡迎!

24日,就在Llama3.1讓市場興奮的同時,奧特曼一條推特讓mini掰回了一局。

“我們盡量不對任何一次評估感到太過興奮,但很高興看到GPT-4o mini 在 lmsys 上的性能如此接近GPT-4o,而價格僅為其二十分之一?!?/p>

圖片圖片

開放研究組織lmsys,昨天放出了一個Chatbot競技場榜單更新,結(jié)果顯示:GPT-4o mini一躍排行榜榜首,與GPT-4o并列第一,但價格更便宜,只有后者的1/20!而且各項性能都要由于早期版本。

這個榜單通過4000+用戶的投票得到的,其中值得注意的是,在Hard Prompts和Coding Arena項中,GPT-4o mini依舊強悍。在數(shù)學(xué)任務(wù)上,GPT-4o mini也也跟turbo持平。

OpenAI創(chuàng)始成員 Karpathy在7月19日就曾發(fā)出一條推文表示:未來大模型的競爭態(tài)勢是:先變小之后才能變大!

圖片圖片

總結(jié)一下,量化模型的時代已經(jīng)來了!至于原因,小編認為有兩點:一、大模型側(cè)訓(xùn)練所需的數(shù)據(jù)和算力已經(jīng)出現(xiàn)了增長瓶頸,二、在盈利之前,絕大多數(shù)開發(fā)者難以負擔大參數(shù)規(guī)模的成本。

最后,為各位奉上更小參數(shù)的Mistral Large 2下載鏈接,諸位不妨體驗一把:

https://huggingface.co/mistralai/Mistral-Large-Instruct-2407

想了解更多AIGC的內(nèi)容,請訪問:

51CTO AI.x社區(qū)

http://www.scjtxx.cn/aigc/


責任編輯:武曉燕 來源: 51CTO技術(shù)棧
相關(guān)推薦

2024-01-26 13:18:00

AI訓(xùn)練

2024-08-27 14:20:00

2024-08-12 09:47:00

模型數(shù)據(jù)

2024-07-19 09:59:31

2021-05-20 16:43:25

阿里云大數(shù)據(jù)人工智能

2021-05-12 10:33:42

阿里人工智能天池平臺

2023-03-22 13:58:59

離職阿里巴巴

2021-05-29 16:30:58

阿里云賈揚清大數(shù)據(jù)

2020-02-20 17:24:12

人工智能深度學(xué)習(xí)技術(shù)

2025-03-27 08:50:38

英偉達Lepton AIAI

2025-03-27 13:08:21

2009-02-26 16:56:07

虛擬化ITVMware

2024-01-24 13:11:00

AI模型

2019-09-27 10:30:28

技術(shù)研發(fā)開源

2010-01-06 14:08:45

堆疊交換機

2024-07-24 16:54:45

2019-03-04 10:03:14

開發(fā)者技能C++

2024-04-07 07:22:00

模型訓(xùn)練

2021-10-25 15:29:56

GitHub阿里開源

2024-07-29 07:46:00

英偉達模型
點贊
收藏

51CTO技術(shù)棧公眾號