自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型

發(fā)布于 2024-10-8 15:16
瀏覽
0收藏

前言

在時間序列預(yù)測任務(wù)中,像 EMD(經(jīng)驗?zāi)B(tài)分解)、CEEMDAN(完全集合經(jīng)驗?zāi)B(tài)分解)、VMD(變分模態(tài)分解) 等分解算法的使用有可能引入信息泄露,具體情況取決于這些方法的應(yīng)用方式。信息泄露的主要風(fēng)險在于:將未來的信息泄露給了模型,使得模型在實際應(yīng)用中表現(xiàn)得比應(yīng)有的好。

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

為了防止信息泄露,我們在分解之前,首先對數(shù)據(jù)集進行劃分。然后使用滑動窗口的方法來制作數(shù)據(jù)集標(biāo)簽,最后逐步滾動分解時間序列窗口!

注:沒有錯誤的分解方法,只有不合適的使用方式!但是也沒有絕對錯誤的使用方式!(以我們輔導(dǎo)投稿的經(jīng)驗來看,仍然有相當(dāng)大的一部分期刊在投稿時不會要求信息泄露這個點,所以投稿時大家要靈活選擇)

1 創(chuàng)新模型效果:

1.1 相關(guān)實驗介紹:

本期基于某風(fēng)電功率數(shù)據(jù)集,提出一種VMD+Informer-BiLSTM并行預(yù)測模型,在單步預(yù)測任務(wù)中預(yù)測效果提升明顯!

在設(shè)置滑動窗口值為96步的條件下,我們對每個樣本窗口值進行VMD分解,并給出了不同分量條件下的對比試驗:

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

對比結(jié)果如下:

隨著IMF分量數(shù)量的增加,可以捕捉到更多的頻率信息,并且每個IMF對應(yīng)不同的時間尺度,提供了更豐富的特征用于預(yù)測模型。模型擬合分數(shù) R2 呈現(xiàn)上升趨勢,同時有著更小的 MSE。

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

1.2 模型評估:

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

1.3 風(fēng)電功率預(yù)測可視化:

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

我們同時提供基于多個數(shù)據(jù)集,在多個預(yù)測任務(wù)中,進行實驗和對比,并提供詳細的資料、解說文檔和視頻講解,包括如何替換自己的數(shù)據(jù)集、參數(shù)調(diào)整教程,預(yù)測任務(wù)的替換等,代碼逐行注釋,參數(shù)介紹詳細:

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

● 數(shù)據(jù)集:某風(fēng)電場風(fēng)電功率數(shù)據(jù)集、電力數(shù)據(jù)集、風(fēng)速數(shù)據(jù)集等

● 環(huán)境框架:python 3.9  pytorch 1.8 及其以上版本均可運行

● 單步預(yù)測模型分數(shù):測試集 0.98

● 使用對象:論文需求、畢業(yè)設(shè)計需求者

● 代碼保證:代碼注釋詳細、即拿即可跑通。

購買鏈接:https://mbd.pub/o/bread/ZpuWlJxx

或點擊文末,閱讀原文,獲取代碼!

2 模型創(chuàng)新點介紹

2.1 結(jié)合Informer和RNN的優(yōu)勢

  • Informer:擅長處理長時間序列,能夠并行計算,提高了計算效率和預(yù)測性能。Informer在Transformer的基礎(chǔ)上進行了改進,使其更適合時序數(shù)據(jù),特別是具有長時間依賴的序列數(shù)據(jù)。
  • BiLSTM:在捕捉序列數(shù)據(jù)的短期和長期依賴性方面表現(xiàn)出色,能夠很好地處理序列數(shù)據(jù)中的時序關(guān)系。

通過將這兩種模型并行使用,可以更好地捕捉不同時間尺度上的模式,提高預(yù)測的準(zhǔn)確性和魯棒性。

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

2.2 并行模型架構(gòu)

并行使用Informer和BiLSTM,通過兩個分支并行學(xué)習(xí),可以使模型在不同的時間尺度上進行信息提取和處理:

  • Informer部分:處理全局時序模式,能夠有效處理長時間序列數(shù)據(jù)。
  • BiLSTM部分:處理局部時序模式,能夠有效捕捉短期依賴性和序列數(shù)據(jù)的動態(tài)變化。

這種架構(gòu)能夠更全面地捕捉時序數(shù)據(jù)的特征,提升模型的預(yù)測性能。

2.3 模型融合

將Informer和BiLSTM的輸出拼接在一起,通過一個全連接層融合不同模型的特征。這種融合方式使得模型能夠同時利用Informer的全局信息提取能力和LSTM的局部時序關(guān)系建模能力。

2.4 高效計算

Informer的使用大大提高了長時間序列的計算效率,同時BiLSTM的使用確保了局部時序信息的充分利用。這種組合在保證高效計算的同時,提升了預(yù)測的精度和可靠性。

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

3 Informer 詳解,三大創(chuàng)新點

3.1 概率稀疏注意力機制(ProbSparse Self-attention)

概率稀疏自注意力是Informer模型中引入的一種稀疏自注意力機制。其核心思想是通過概率方法選擇最重要的一部分注意力權(quán)重進行計算,而忽略那些對結(jié)果影響較小的權(quán)重。這種方法能夠顯著降低計算復(fù)雜度,同時保持較高的模型性能。

  • 稀疏自注意力:不同于標(biāo)準(zhǔn) Transformer 的密集自注意力機制,Informer 引入了 ProbSparse Self-attention,通過概率抽樣機制選擇重要的 Q-K 對進行計算,減少了計算復(fù)雜度。
  • 效率提升:稀疏注意力機制顯著降低了計算復(fù)雜度,從 O(L2?d) 降低到 O(L?log(L)?d),其中 L 是序列長度,d 是每個時間步的特征維度。

3.2 多尺度特征提取-信息蒸餾

Informer的架構(gòu)圖并沒有像Transformer一樣在Encoder的左邊標(biāo)注來表示N個Encoder的堆疊,而是一大一小兩個梯形。橫向看完單個Encoder(也就是架構(gòu)圖中左邊的大梯形,是整個輸入序列的主堆棧)。

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

Encoder的作用是Self-attention Distilling,由于ProbSparse自相關(guān)機制有很多都是用V的mean填充的,所以天然就存在冗余的attention sorce ,因此在相鄰的Attention Block之間應(yīng)用卷積與池化來對特征進行下采樣,所以作者在設(shè)計Encoder時,采用蒸餾的操作不斷抽取重點特征,從而得到值得重點關(guān)注的特征圖。

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

  • 多尺度時間序列特征提?。篒nformer 通過多尺度的方式對不同時間粒度的特征進行建模,可以更好地捕捉時間序列中的多尺度依賴關(guān)系。
  • 信息蒸餾:引入了信息蒸餾機制,通過層次化的時間卷積池化層逐步縮減時間步長,提取不同尺度的特征,實現(xiàn)長時間依賴的高效建模。
  • 卷積降維:在編碼器中使用1D卷積池化層進行降維,步長為2,使得序列長度減半,進一步減少計算復(fù)雜度。
  • 信息壓縮:通過卷積池化層進行信息壓縮,將長序列信息濃縮到較短的時間步長中,從而更高效地進行時序建模。

3.3 時間編碼

Informer在原始向量上不止增加了Transformer架構(gòu)必備的PositionEmbedding(位置編碼)還增加了與時間相關(guān)的各種編碼:

  • 日周期編碼:表示一天中的時間點。
  • 周周期編碼:表示一周中的時間點。
  • 月周期編碼:表示一個月中的時間點。

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

在 LSTF 問題中,捕獲遠程獨立性的能力需要全局信息,例如分層時間戳(周、月和年)和不可知時間戳(假期、事件)。

具體在這里增加什么樣的GlobalTimeStamp還需要根據(jù)實際問題來確認,如果計算高鐵動車車站的人流量,顯然“假期”的時間差就是十分重要的。如果計算公交地鐵等通勤交通工具的人流量,顯然“星期”可以更多的揭示是否為工作日。

4 風(fēng)電功率等數(shù)據(jù)集介紹

4.1 導(dǎo)入數(shù)據(jù)

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

風(fēng)電功率數(shù)據(jù)集一共35040個樣本,15個特征,取前6000條數(shù)據(jù)進行可視化

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

4.2 其它數(shù)據(jù)集介紹

參考前期文章:

免費獲取 | 時間序列常用數(shù)據(jù)集、可視化代碼

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

4.3 數(shù)據(jù)集制作與預(yù)處理

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

詳細介紹見提供的文檔!

5 基于VMD+Informer-BiLSTM的并行預(yù)測模型

5.1 定義Informer-BiLSTM并行預(yù)測網(wǎng)絡(luò)模型

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

5.2 設(shè)置參數(shù),訓(xùn)練模型

50個epoch,MSE 為0.01283,VMD+Informer-BiLSTM并行預(yù)測效果顯著,模型能夠充分利用Informer的長時間依賴建模能力和BiLSTM的短期依賴捕捉能力征,收斂速度快,性能優(yōu)越,預(yù)測精度高,適當(dāng)調(diào)整模型參數(shù),還可以進一步提高模型預(yù)測表現(xiàn)。

6 結(jié)果可視化和模型評估

6.1 預(yù)測結(jié)果可視化

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

6.2 模型評估

拒絕信息泄露!VMD滾動分解 + Informer-BiLSTM并行預(yù)測模型-AI.x社區(qū)

由預(yù)測結(jié)果可見,在VMD+Informer-BiLSTM并行預(yù)測模型下擬合效果良好,通過這種設(shè)計,可以充分利用Informer和BiLSTM的優(yōu)勢,實現(xiàn)高效且準(zhǔn)確的時序預(yù)測,組合預(yù)測效果顯著!

本文轉(zhuǎn)載自 ??建模先鋒??,作者: 小蝸愛建模


收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦