自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型

發(fā)布于 2024-9-12 10:56
瀏覽
0收藏

1 創(chuàng)新模型效果:

1.1 模型評(píng)估:

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)


1.2 風(fēng)電功率預(yù)測(cè)可視化:

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)


1.3 電力負(fù)荷預(yù)測(cè)可視化:

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)

2 模型創(chuàng)新點(diǎn)介紹

2.1 結(jié)合Informer和BiGRU-GATT的優(yōu)勢(shì)

  • Informer:擅長(zhǎng)處理長(zhǎng)時(shí)間序列,能夠并行計(jì)算,提高了計(jì)算效率和預(yù)測(cè)性能。Informer在Transformer的基礎(chǔ)上進(jìn)行了改進(jìn),使其更適合時(shí)序數(shù)據(jù),特別是具有長(zhǎng)時(shí)間依賴的序列數(shù)據(jù)。
  • BiGRU-GlobalAttention:通過雙向門控循環(huán)單元(BiGRU)同時(shí)從前向和后向?qū)π蛄羞M(jìn)行建模,以更好地捕獲序列中的依賴關(guān)系,同時(shí)應(yīng)用全局注意力機(jī)制GlobalAttention,對(duì)BiGRU的輸出進(jìn)行加權(quán)處理,使模型能夠聚焦于序列中最重要的部分,提高預(yù)測(cè)性能。
    ?

通過將這兩種模型并行使用,可以更好地捕捉不同時(shí)間尺度上的模式,提高預(yù)測(cè)的準(zhǔn)確性和魯棒性。

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)


2.2 并行模型架構(gòu)

并行使用Informer和BiGRU-GATT,通過兩個(gè)分支并行學(xué)習(xí),可以使模型在不同的時(shí)間尺度上進(jìn)行信息提取和處理:

(1)Informer部分:

  • 主要用于捕捉全局時(shí)序模式,適合處理長(zhǎng)時(shí)間序列數(shù)據(jù)。
  • 通過稀疏自注意力機(jī)制提高對(duì)遠(yuǎn)程時(shí)序依賴的捕捉能力。
  • 對(duì)輸入數(shù)據(jù)進(jìn)行全局特征提取。

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)


(2)BiGRU-GATT部分:

多特征序列數(shù)據(jù)同時(shí)通過基于GlobalAttention優(yōu)化的BiGRU網(wǎng)絡(luò),GlobalAttention是一種用于加強(qiáng)模型對(duì)輸入序列不同部分的關(guān)注程度的機(jī)制。在 BiGRU 模型中,全局注意力機(jī)制可以幫助模型更好地聚焦于輸入序列中最相關(guān)的部分,從而提高模型的性能和泛化能力。在每個(gè)時(shí)間步,全局注意力機(jī)制計(jì)算一個(gè)權(quán)重向量,表示模型對(duì)輸入序列各個(gè)部分的關(guān)注程度,然后將這些權(quán)重應(yīng)用于 BiGRU 輸出的特征表示,通過對(duì)所有位置的特征進(jìn)行加權(quán),使模型能夠更有針對(duì)性地關(guān)注重要的時(shí)域特征, 提高了模型對(duì)多特征序列時(shí)域特征的感知能力。


聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)


這種架構(gòu)能夠更全面地捕捉時(shí)序數(shù)據(jù)的特征,提升模型的預(yù)測(cè)性能。

2.3 模型融合

將Informer和BiGRU-GATT的輸出拼接在一起,通過一個(gè)全連接層融合不同模型的特征。這種融合方式使得模型能夠同時(shí)利用Informer的全局信息提取能力和BiGRU-GATT的局部時(shí)序關(guān)系建模能力。

2.4 高效計(jì)算

Informer的使用大大提高了長(zhǎng)時(shí)間序列的計(jì)算效率,同時(shí)BiGRU-GATT的使用確保了局部時(shí)序信息的充分利用。這種組合在保證高效計(jì)算的同時(shí),提升了預(yù)測(cè)的精度和可靠性。

3 Informer 詳解,三大創(chuàng)新點(diǎn)

3.1 概率稀疏注意力機(jī)制(ProbSparse Self-attention)

概率稀疏自注意力是Informer模型中引入的一種稀疏自注意力機(jī)制。其核心思想是通過概率方法選擇最重要的一部分注意力權(quán)重進(jìn)行計(jì)算,而忽略那些對(duì)結(jié)果影響較小的權(quán)重。這種方法能夠顯著降低計(jì)算復(fù)雜度,同時(shí)保持較高的模型性能。

  • 稀疏自注意力:不同于標(biāo)準(zhǔn) Transformer 的密集自注意力機(jī)制,Informer 引入了 ProbSparse Self-attention,通過概率抽樣機(jī)制選擇重要的 Q-K 對(duì)進(jìn)行計(jì)算,減少了計(jì)算復(fù)雜度。
  • 效率提升:稀疏注意力機(jī)制顯著降低了計(jì)算復(fù)雜度,從 O(L2?d) 降低到 O(L?log(L)?d),其中 L 是序列長(zhǎng)度,d 是每個(gè)時(shí)間步的特征維度。

3.2 多尺度特征提取-信息蒸餾

Informer的架構(gòu)圖并沒有像Transformer一樣在Encoder的左邊標(biāo)注來表示N個(gè)Encoder的堆疊,而是一大一小兩個(gè)梯形。橫向看完單個(gè)Encoder(也就是架構(gòu)圖中左邊的大梯形,是整個(gè)輸入序列的主堆棧)。

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)


Encoder的作用是Self-attention Distilling,由于ProbSparse自相關(guān)機(jī)制有很多都是用V的mean填充的,所以天然就存在冗余的attention sorce ,因此在相鄰的Attention Block之間應(yīng)用卷積與池化來對(duì)特征進(jìn)行下采樣,所以作者在設(shè)計(jì)Encoder時(shí),采用蒸餾的操作不斷抽取重點(diǎn)特征,從而得到值得重點(diǎn)關(guān)注的特征圖。

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)


  • 多尺度時(shí)間序列特征提?。篒nformer 通過多尺度的方式對(duì)不同時(shí)間粒度的特征進(jìn)行建模,可以更好地捕捉時(shí)間序列中的多尺度依賴關(guān)系。
  • 信息蒸餾:引入了信息蒸餾機(jī)制,通過層次化的時(shí)間卷積池化層逐步縮減時(shí)間步長(zhǎng),提取不同尺度的特征,實(shí)現(xiàn)長(zhǎng)時(shí)間依賴的高效建模。
  • 卷積降維:在編碼器中使用1D卷積池化層進(jìn)行降維,步長(zhǎng)為2,使得序列長(zhǎng)度減半,進(jìn)一步減少計(jì)算復(fù)雜度。
  • 信息壓縮:通過卷積池化層進(jìn)行信息壓縮,將長(zhǎng)序列信息濃縮到較短的時(shí)間步長(zhǎng)中,從而更高效地進(jìn)行時(shí)序建模。

3.3 時(shí)間編碼

Informer在原始向量上不止增加了Transformer架構(gòu)必備的PositionEmbedding(位置編碼)還增加了與時(shí)間相關(guān)的各種編碼:

  • 日周期編碼:表示一天中的時(shí)間點(diǎn)。
  • 周周期編碼:表示一周中的時(shí)間點(diǎn)。
  • 月周期編碼:表示一個(gè)月中的時(shí)間點(diǎn)。


聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)

在 LSTF 問題中,捕獲遠(yuǎn)程獨(dú)立性的能力需要全局信息,例如分層時(shí)間戳(周、月和年)和不可知時(shí)間戳(假期、事件)。

具體在這里增加什么樣的GlobalTimeStamp還需要根據(jù)實(shí)際問題來確認(rèn),如果計(jì)算高鐵動(dòng)車車站的人流量,顯然“假期”的時(shí)間差就是十分重要的。如果計(jì)算公交地鐵等通勤交通工具的人流量,顯然“星期”可以更多的揭示是否為工作日。

4 風(fēng)電功率等數(shù)據(jù)集介紹

4.1 導(dǎo)入數(shù)據(jù)

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)


風(fēng)電功率數(shù)據(jù)集一共35040個(gè)樣本,15個(gè)特征,取前6000條數(shù)據(jù)進(jìn)行可視化

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)

4.2 數(shù)據(jù)集制作與預(yù)處理

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)

詳細(xì)介紹見提供的文檔!

5 基于Informer-BiGRU-GATT的并行預(yù)測(cè)模型

5.1 定義Informer-BiGRU-GATT并行預(yù)測(cè)網(wǎng)絡(luò)模型

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)


5.2 設(shè)置參數(shù),訓(xùn)練模型

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)

50個(gè)epoch,MSE 為0.01284,Informer-BiGRU-GATT并行預(yù)測(cè)效果顯著,模型能夠充分利用Informer的長(zhǎng)時(shí)間依賴建模能力和BiGRU-GATT的短期依賴捕捉能力征,收斂速度快,性能優(yōu)越,預(yù)測(cè)精度高,適當(dāng)調(diào)整模型參數(shù),還可以進(jìn)一步提高模型預(yù)測(cè)表現(xiàn)。

6 結(jié)果可視化和模型評(píng)估

6.1 預(yù)測(cè)結(jié)果可視化

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)


6.2 模型評(píng)估

聊聊基于 Informer+BiGRU-GlobalAttention的并行預(yù)測(cè)模型-AI.x社區(qū)

由預(yù)測(cè)結(jié)果可見,在Informer-BiGRU-GATT并行預(yù)測(cè)模型下擬合效果良好,通過這種設(shè)計(jì),可以充分利用Informer和BiGRU-GATT的優(yōu)勢(shì),實(shí)現(xiàn)高效且準(zhǔn)確的時(shí)序預(yù)測(cè),組合預(yù)測(cè)效果顯著!

本文轉(zhuǎn)載自??建模先鋒??,作者: 小蝸愛建模 ????


收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦