自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

從零手搓MoE大模型,大神級教程來了

人工智能 新聞
Hugging Face上有一位機器學(xué)習(xí)大神,分享了如何從頭開始建立一套完整的MoE系統(tǒng)。

傳說中GPT-4的“致勝法寶”——MoE(混合專家)架構(gòu),自己也能手搓了!

Hugging Face上有一位機器學(xué)習(xí)大神,分享了如何從頭開始建立一套完整的MoE系統(tǒng)。

圖片

這個項目被作者叫做MakeMoE,詳細(xì)講述了從注意力構(gòu)建到形成完整MoE模型的過程。

作者介紹,MakeMoE是受到OpenAI創(chuàng)始成員Andrej Karpathy的makemore啟發(fā)并以之為基礎(chǔ)編寫的。

makemore是一個針對自然語言處理和機器學(xué)習(xí)的教學(xué)項目,意在幫助學(xué)習(xí)者理解并實現(xiàn)一些基本模型。

同樣,MakeMoE也是在一步步的搭建過程中,幫助學(xué)習(xí)者更深刻地理解混合專家模型。

那么,這份“手搓攻略”具體都講了些什么呢?

從頭開始搭建MoE模型

和Karpathy的makemore相比,MakeMoE用稀疏的專家混合體代替了孤立的前饋神經(jīng)網(wǎng)絡(luò),同時加入了必要的門控邏輯。

同時,由于過程中需要用到ReLU激活函數(shù),makemore中的默認(rèn)初始化方式被替換成了Kaiming He方法。

想要創(chuàng)建一個MoE模型,首先要理解自注意力機制。

模型首先通過線性變換,將輸入序列變換成用查詢(Q)、鍵(K)和值(V)表示的參數(shù)。

這些參數(shù)隨后被用于計算注意力分?jǐn)?shù),這些分?jǐn)?shù)決定了在生成每個token時,模型對序列中每個位置的關(guān)注程度。

為了確保模型在生成文本時的自回歸特性,即只能基于已經(jīng)生成的token來預(yù)測下一個token,作者使用了多頭因果自注意力機制。

這種機制通過一個掩碼來實現(xiàn)將未處理的位置的注意力分?jǐn)?shù)設(shè)置為負(fù)無窮大,這樣這些位置的權(quán)重就會變?yōu)榱恪?/p>

多頭因果則是讓模型并行地執(zhí)行多個這樣的注意力計算,每個頭關(guān)注序列的不同部分。

圖片

完成自注意力機制的配置后,就可以創(chuàng)建專家模塊了,這里的“專家模塊”是一種多層感知器。

每個專家模塊包含一個線性層,它將嵌入向量映射到一個更大的維度,然后通過非線性激活函數(shù)(如ReLU),再通過另一個線性層將向量映射回原始的嵌入維度。

這樣的設(shè)計使得每個專家能夠?qū)W⒂谔幚磔斎胄蛄械牟煌糠?,并通過門控網(wǎng)絡(luò)來決定在生成每個token時應(yīng)該激活哪些專家。

圖片

于是,接下來就要開始構(gòu)建分配和管理專家的組件——門控網(wǎng)絡(luò)。

這里的門控網(wǎng)絡(luò)同樣是通過一個線性層實現(xiàn),該層將自注意力層的輸出映射到專家模塊的數(shù)量。

這個線性層的輸出是一個分?jǐn)?shù)向量,每個分?jǐn)?shù)代表了對應(yīng)專家模塊對于當(dāng)前處理的token的重要性。

門控網(wǎng)絡(luò)會計算這個分?jǐn)?shù)向量的top-k值并記錄其索引,然后從中選擇top-k個最大的分?jǐn)?shù),用來加權(quán)對應(yīng)的專家模塊輸出。

圖片

為了在訓(xùn)練過程中增加模型的探索性,作者還引入了噪聲,避免所有token都傾向于被相同的專家處理。

這種噪聲通常通過在分?jǐn)?shù)向量上添加隨機的高斯噪聲實現(xiàn)。

圖片

獲得結(jié)果后,模型有選擇地將前k個值與相應(yīng)token的前k個專家的輸出相乘,然后相加形成加權(quán)和,構(gòu)成模型的輸出。

最后,將這些模塊在一起,就得到一個MoE模型了。

針對以上的整個過程,作者都提供了相應(yīng)的代碼,可以到原文中具體了解。

另外,作者還制作了端到端的Jupyter筆記,可以在學(xué)習(xí)各模塊的同時直接運行。

感興趣的話,就趕快學(xué)起來吧!

原文地址:https://huggingface.co/blog/AviSoori1x/makemoe-from-scratch
筆記版本(GitHub):https://github.com/AviSoori1x/makeMoE/tree/main

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-04-09 15:22:24

2023-02-27 09:29:05

GPT模型

2024-02-06 10:38:10

昆侖萬維大模型

2024-05-06 07:58:23

MoE模型系統(tǒng)

2024-02-06 20:39:21

2023-05-08 15:14:38

技術(shù)AI

2024-01-12 17:25:45

MoE模型開源人工智能

2025-03-11 09:42:00

2024-05-13 08:20:00

GPU芯片

2024-09-13 11:08:06

2025-01-16 08:40:00

2023-04-10 15:37:18

AI代碼

2024-04-01 12:10:48

數(shù)據(jù)訓(xùn)練

2024-05-07 08:04:09

代碼格式化工具

2025-01-24 14:19:21

2023-11-10 12:57:00

AI模型

2024-04-01 12:39:05

大模型人工智能AI

2025-04-14 11:00:00

點贊
收藏

51CTO技術(shù)棧公眾號