自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

編程表現(xiàn)比肩ChatGPT,這個新模型能力很強(qiáng)大

發(fā)布于 2024-9-6 14:38
瀏覽
0收藏

智譜8月底在國際數(shù)據(jù)挖掘與知識發(fā)現(xiàn)大會(KDD)上發(fā)布了新一代自主研發(fā)的新旗艦?zāi)P停℅LM-4-Plus、GLM-4V-Plus、CogView-3-Plus),此次更新覆蓋了語言理解、圖像生成、視頻理解等多個方面,并達(dá)到了國際第一梯隊的水平。

本次發(fā)布較之前有以下更新:

  • GLM-4-Plus(大語言模型):語言理解和長文本處理能力全面提升,支持128K上下文和多路Function Call。
  • GLM-4V-Plus(圖像和視頻理解模型):具備卓越的圖像和視頻理解能力,支持8K上下文和多圖輸入,擁有時間感知能力。
  • CogView-3-Plus:圖像生成效果接近MJ-V6及FLUX等模型,支持精細(xì)化圖像編輯。

作為智譜最新一代基座大模型GLM-4-Plus,通過多種方式構(gòu)造出了海量高質(zhì)量數(shù)據(jù),并利用 PPO等多項技術(shù),有效提升了模型推理、指令遵循等方面的表現(xiàn),并能夠更好地反映人類偏好。從benchmark上看,與 GPT-4o 等第一梯隊模型差距很小。 

編程表現(xiàn)比肩ChatGPT,這個新模型能力很強(qiáng)大-AI.x社區(qū)圖片

既然,官方說的這么好,那咱們就一定要去嘗嘗鮮,這些模型在智譜的開放平臺( bigmodel.cn )就能體驗。

編程表現(xiàn)比肩ChatGPT,這個新模型能力很強(qiáng)大-AI.x社區(qū)

咱也不讓它寫文章,做數(shù)學(xué)題了,這些網(wǎng)上很多文章都有介紹,咱們就讓它做一次程序員,試試它的編程能力,順便體驗一下sdk的易用性。

我給它出了一道很常見的面試算法題“字符串全排列”,它很干脆的給出了結(jié)果,經(jīng)過筆者驗證,回答正確,看起來這些曾被大家“wow”的能力,在當(dāng)下已經(jīng)成為了基本功。這里有一個小細(xì)節(jié),筆者在提示詞里增加了不用解釋這樣的描述,GLM-4-Plus沒有啰嗦解釋,這說明指令遵從能力還可以,這一點對于LLM應(yīng)用開發(fā)很重要。

from zhipuai import ZhipuAI

client = ZhipuAI(api_key="...") 

def ai_programmer(task):
    prompt = f"作為一個經(jīng)驗豐富的程序員,請幫我完成以下任務(wù):{task},僅返回代碼,不用解釋"
    response = client.chat.completions.create(
    model="glm-4-plus",  
    messages=[
        {
            "role": "user",
            "content": prompt
        }
        ],
    )   
    return response.choices[0].message
  

task = "寫一個Python函數(shù),實現(xiàn)字符串a(chǎn)bc的全排列"
result = ai_programmer(task)

print(result.content)


# ```python
# def permute_abc(s):
#     if len(s) == 1:
#         return [s]
#     permutations = []
#     for i, char in enumerate(s):
#         remaining = s[:i] + s[i+1:]
#         for p in permute_abc(remaining):
#             permutations.append(char + p)
#     return permutations

# def all_permutations_abc():
#     return permute_abc('abc')
# ```

當(dāng)然,這個難度不大,很多模型都能做到,那我們調(diào)高難度,我拿了前兩天ChatGPT及Cursor逆向工程壓縮特效js的代碼測試了GLM-4-Plus(延伸閱讀:用ChatGPT逆向工程壓縮后的Js代碼,表現(xiàn)驚艷)。

編程表現(xiàn)比肩ChatGPT,這個新模型能力很強(qiáng)大-AI.x社區(qū)

glm-4-plus理解了代碼,并給出了詳細(xì)的解釋。

編程表現(xiàn)比肩ChatGPT,這個新模型能力很強(qiáng)大-AI.x社區(qū)

接著,我讓它對原代碼進(jìn)行了重構(gòu),使其變得更易讀。

編程表現(xiàn)比肩ChatGPT,這個新模型能力很強(qiáng)大-AI.x社區(qū)

編程表現(xiàn)比肩ChatGPT,這個新模型能力很強(qiáng)大-AI.x社區(qū)

就從代碼風(fēng)格,變量、方法命名看,glm-4-plus表現(xiàn)的比chatGPT還要好,能夠準(zhǔn)確的起名和注釋。但最后評價好不好,還得實測,筆者照例把它放到了v0chat上,按照同樣的方式,讓它調(diào)用glm-4-plus生成的組件,看看能不能還原預(yù)期的效果。

編程表現(xiàn)比肩ChatGPT,這個新模型能力很強(qiáng)大-AI.x社區(qū)

令人欣喜的是,超乎我的預(yù)期的是它一次性的就運行了起來,筆者同時還測試了一些國產(chǎn)模型,他們很遺憾并沒能運行起來,也就無法對比實現(xiàn)的效果。看過之前文章的讀者應(yīng)該能發(fā)現(xiàn),從實現(xiàn)的還原度來看,glm-4-plus與gpt-4o模型和claude-3.5-sonanet性能還有一些差距。這也反映當(dāng)下一個事實,國內(nèi)大模型這一年進(jìn)步明顯,但尚存差距,我們還得繼續(xù)追趕。

總結(jié)

AI的世界每天都在變化,而智譜BigModel的發(fā)布,無疑是給了我們中國開發(fā)者一個大大的驚喜。無論是想做聊天機(jī)器人、圖像處理還是視頻分析,只要有創(chuàng)意,都可以嘗試使用它們實現(xiàn)想法,而不用遺憾用不上領(lǐng)先模型的遺憾,這也能進(jìn)一步激發(fā)LLM應(yīng)用生態(tài)的繁榮。

本文轉(zhuǎn)載自 ??AI工程化??,作者: ully

標(biāo)簽
收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦