聊聊 VMD + CEEMDAN 二次分解,TCN-Transformer并行預(yù)測(cè)模型
前言
本文基于前期介紹的電力變壓器,介紹一種基于VMD+CEEMDAN二次分解的TCN-Transforme預(yù)測(cè)模型,以提高時(shí)間序列數(shù)據(jù)的預(yù)測(cè)性能。電力變壓器數(shù)據(jù)集的詳細(xì)介紹可以參考下文:
電力變壓器數(shù)據(jù)集介紹和預(yù)處理
1 二次分解與數(shù)據(jù)集制作
1.1 導(dǎo)入數(shù)據(jù)
1.2 VMD分解
第一步,根據(jù)不同K值條件下, 觀察中心頻率,選定K值;從K=4開始出現(xiàn)中心頻率相近的模態(tài),出現(xiàn)過分解,故模態(tài)數(shù) K 選為4。
第二步,分解可視化
1.3 樣本熵
樣本熵是一種用于衡量序列復(fù)雜度的方法,可以通過計(jì)算序列中的不確定性來評(píng)估其復(fù)雜性。樣本熵越高,表示序列的復(fù)雜度越大。
通過對(duì)VMD分解出四個(gè)分量的樣本熵計(jì)算,高樣本熵有著更豐富的不可控信息,為進(jìn)一步提取分量中的有效信息,對(duì)VMD的最高熵值項(xiàng),進(jìn)行CEEMDAN分解
1.4 CEEMDAN分解
對(duì) VMD分解出的 最高熵值項(xiàng)分量進(jìn)行再分解
1.5 數(shù)據(jù)集制作
先合并VMD和CEEMDAN分解的分量,按照8:2劃分訓(xùn)練集和測(cè)試集
2 基于Pytorch的 TCN-Transformer 預(yù)測(cè)模型
2.1 定義TCN-Transformer預(yù)測(cè)模型
2.2 設(shè)置參數(shù),訓(xùn)練模型
50個(gè)epoch,MSE 為0.0148,VMD+CEEMDAN二次分解的TCN-Transformer并行預(yù)測(cè)效果良好,二次分解后,能夠提取序列中更多的信息,TCN-Transformer模型能夠提取出分量特征的時(shí)空信息,預(yù)測(cè)效果提升明顯,性能優(yōu)越,適當(dāng)調(diào)整模型參數(shù),還可以進(jìn)一步提高模型預(yù)測(cè)表現(xiàn)。
注意調(diào)整參數(shù):
- 可以修改TCN層數(shù)和每層通道數(shù);
- 調(diào)整Transformer編碼器層數(shù)和注意力維度數(shù)、多頭注意力頭數(shù),增加更多的 epoch (注意防止過擬合)
- 可以改變滑動(dòng)窗口長(zhǎng)度(設(shè)置合適的窗口長(zhǎng)度)
3 模型評(píng)估與可視化
3.1 結(jié)果可視化
3.2 模型評(píng)估
? ?
本文轉(zhuǎn)載自 ??建模先鋒??,作者: 小蝸愛建模
