自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

ChatGPT真實(shí)參數(shù)只有200億,首次被微軟曝光!網(wǎng)友:難怪OpenAI對(duì)開(kāi)源很緊張

人工智能
微軟研究員提出了采用編碼-解碼架構(gòu)的CODEFUSION,主要包括編碼器、解碼器、去噪器以及Classification Head,將自然語(yǔ)言輸入編碼為連續(xù)表示,然后將其附加條件輸入Diffusion模型中用高斯噪聲進(jìn)行迭代去噪。

突然間,整個(gè)大模型圈都在談?wù)撏患隆?/p>

微軟論文里一張「乍一看不足為奇」的統(tǒng)計(jì)圖,泄露了“天機(jī)”。

引領(lǐng)全球風(fēng)暴的ChatGPT,背后大模型參數(shù)竟只有200億???

圖片

論文一經(jīng)發(fā)布,就吸引了國(guó)內(nèi)外眾多關(guān)注。

圖片
圖片

不少網(wǎng)友還不相信:確定不是拼寫(xiě)錯(cuò)了?

圖片

有網(wǎng)友表示:難怪OpenAI對(duì)開(kāi)源這么緊張。又或者,這也許是為OpenAI開(kāi)源做準(zhǔn)備。

圖片

無(wú)獨(dú)有偶,就在前幾天有網(wǎng)友在GitHub Copilot的API中發(fā)現(xiàn)了疑似GPT-4新型號(hào):copilot-gpt-4-2,所擁有的知識(shí)更新到了2023年3月。

圖片

這篇論文說(shuō)了啥?

除了泄露機(jī)密,這篇論文本身也值得一看:業(yè)內(nèi)首個(gè)用擴(kuò)散模型做代碼生成。

研究團(tuán)隊(duì)設(shè)想了這樣一個(gè)場(chǎng)景:

如果開(kāi)發(fā)人員只能修改最后一行代碼,那么需要多少次從頭開(kāi)始編寫(xiě)一個(gè)函數(shù)才能完成呢?

用自然語(yǔ)言生成代碼的自回歸模型也有類(lèi)似的局限性:不太容易重新考慮之前生成的tokens。

圖片

微軟研究員提出了采用編碼-解碼架構(gòu)的CODEFUSION,主要包括編碼器、解碼器、去噪器以及Classification Head,將自然語(yǔ)言輸入編碼為連續(xù)表示,然后將其附加條件輸入Diffusion模型中用高斯噪聲進(jìn)行迭代去噪。

圖片

為了生成語(yǔ)法正確的代碼,去噪后輸入解碼器中獲得代碼tokens,通過(guò)針對(duì)代碼的連續(xù)段落去噪(CPD)任務(wù)預(yù)訓(xùn)練CODEFUSION。

在Python、Bash和Excel條件格式化(CF)規(guī)則三個(gè)語(yǔ)言任務(wù)上評(píng)估了CODEFUSION。

結(jié)果顯示其7500萬(wàn)參數(shù)規(guī)模CODEFUSION性能,同200億參數(shù)的GPT-3.5-turbo接近,而且還生成更加多樣化的代碼。

圖片

與純文本生成的diffusion模型相比,CODEFUSION生成更多語(yǔ)法正確的代碼;與自動(dòng)回歸模型相比,生成更加多樣化的候選代碼。

與最先進(jìn)的自回歸系統(tǒng)(350M-175B 參數(shù))相比,在前 1 名的準(zhǔn)確率方面表現(xiàn)相當(dāng),而在前 3 名和前 5 名的準(zhǔn)確率方面,由于其在多樣性與質(zhì)量之間取得了更好的平衡,其表現(xiàn)優(yōu)于自回歸系統(tǒng)。

結(jié)果這原本只是一次再正常不過(guò)的性能比較,沒(méi)想到引起軒然大波。

圖片

也有人開(kāi)始了陰謀論,或許這是OpenAI開(kāi)源的“前菜”,故意而為之——

因?yàn)椴簧俅竽P鸵呀?jīng)追趕上來(lái)了,而且早在今年5月,路透社就曾爆料OpenAI準(zhǔn)備開(kāi)源新大語(yǔ)言模型。

圖片

One More Thing

值得一提的是,早在今年2月份福布斯一則新聞報(bào)道里,就曾透露過(guò)ChatGPT只有200億參數(shù)。

圖片

當(dāng)時(shí)標(biāo)題是「越大越好嗎?為什么 ChatGPT VS GPT-3 VS GPT-4 的 “戰(zhàn)斗 “只是一次家庭聊天?」

只是當(dāng)時(shí)沒(méi)有太多人在意。

參考鏈接:
[1]https://twitter.com/felix_red_panda/status/1718916631512949248。

[2]https://x.com/teortaxesTex/status/1718972447024623898?s=20。
[3]https://www.reddit.com/r/singularity/comments/17jrepb/microsoft_paper_claims_chatgpt_35_has_20_billion/。
[4]https://www.zhihu.com/question/628395521。
[5]https://www.reddit.com/r/ChatGPT/comments/17ht56t/new_leaks_about_upcoming_developments_with_openai/?share_id=txV27HR0zw0TjV8dLXf4l。
[6]https://www.forbes.com/sites/forbestechcouncil/2023/02/17/is-bigger-better-why-the-chatgpt-vs-gpt-3-vs-gpt-4-battle-is-just-a-family-chat/amp/。

責(zé)任編輯:姜華 來(lái)源: 量子位
相關(guān)推薦

2023-10-31 12:29:25

模型訓(xùn)練

2024-12-30 07:40:00

AGI開(kāi)發(fā)AI

2024-12-02 10:00:00

ChatGPTAI

2025-01-21 12:44:50

2024-11-21 13:36:35

2023-07-11 17:41:29

OpenAIChatGPT隱私

2024-03-18 07:01:42

2009-02-17 20:01:11

微軟招聘linux業(yè)務(wù)主管

2023-03-27 07:27:52

2025-01-26 14:07:34

2024-05-07 13:44:00

模型數(shù)據(jù)

2023-04-26 13:56:17

模型ChatGPT

2025-04-21 08:30:00

微軟開(kāi)源模型

2023-06-21 13:20:58

2023-03-31 15:12:33

ChatGPTOpenAI谷歌

2023-11-01 13:37:26

2024-12-27 12:38:54

2023-05-16 20:47:38

2023-01-11 20:06:35

2024-04-23 13:10:41

數(shù)據(jù)訓(xùn)練
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)