自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

時序預(yù)測中的多類型模型組合建模方案

發(fā)布于 2024-9-23 09:56
瀏覽
0收藏

時間序列建模中很多種類型的結(jié)構(gòu)可以選擇,比如Transformer、CNN、RNN,以及最近被驗證有效的MLP、Mamba等結(jié)構(gòu)。然而,不同模型都有特定的潛在優(yōu)勢和劣勢。因此,現(xiàn)在越來越多的時序預(yù)測模型優(yōu)化工作,采用了多模型組合的建模方式。

今天這篇文章,就給大家介紹一下多模型組合建模的核心思路,以及幾篇近期發(fā)表的多模型組合時序預(yù)測工作,在一個模型中同時使用不同類型的模型結(jié)構(gòu),實現(xiàn)各個結(jié)構(gòu)之間的優(yōu)勢互補。

1.早期模型組合建模方案

在Transformer應(yīng)用到時間序列預(yù)測建模后,越來越多的模型組合方法被挖掘并應(yīng)用。例如RNN+Transformer、CNN+Transformer等結(jié)構(gòu)。這主要是因為Transformer和CNN、RNN等模型可以實現(xiàn)比較好的優(yōu)勢互補。Transformer的優(yōu)勢在于長周期的attention建模,但是由于其只通過位置編碼獲取時序關(guān)系,對時序建模的能力并不強。而RNN、CNN則比較擅長時序數(shù)據(jù)的處理,但是對于長周期的建模能力較弱。因此,RNN/CNN配合Transformer的建模方法逐漸走進研究者視野。

比如在Enhancing the Locality and Breaking the Memory Bottleneck of Transformer on Time Series Forecasting這篇文章中,在Transformer底層加一個CNN,利用CNN的序列建模能力讓輸入的時序樣本點感知到上下文信息。Temporal Fusion Transformers for Interpretable Multi-horizon Time Series Forecasting也是類似的思路,在Transformer底層加一個RNN,將RNN的序列建模能力和Transformer的長周期建模能力結(jié)合起來。

時序預(yù)測中的多類型模型組合建模方案-AI.x社區(qū)

除了CNN和RNN外,現(xiàn)在很多工作將MLP和Transformer結(jié)合在一起。MLP的作用和CNN非常相似,也是將單個樣本點的信息,通過臨近點的整體編碼,形成語義更強的時序表征,再輸入到后續(xù)Transfomrer模型中。PatchA Time Series is Worth 64 Words: Long-term Forecasting with Transformers中提出的PatchTST就是這個建模思路。

時序預(yù)測中的多類型模型組合建模方案-AI.x社區(qū)

2.近期模型組合新工作

接下來給大家介紹2篇近期的時間序列預(yù)測多模型組合工作。這兩篇文章都融合了包括Transformer、CNN、RNN、Mamba、MLP等結(jié)構(gòu)中的至少3個。

第一篇是Mamba or Transformer for Time Series Forecasting? Mixture of Universals (MoU) Is All You Need。這篇文章提出了一種多模型融合的建模方法,實現(xiàn)對時間序列長短期信息的綜合利用。模型中引入了包括Mamba、Transformer、CNN等多種模型結(jié)構(gòu)進行不同維度的時間序列信息抽取。

文中的核心優(yōu)化點包括2個方面,一個是在底層時間序列的patch處理上進行了優(yōu)化,另一個是模型結(jié)構(gòu)上的多種結(jié)構(gòu)融合思路。在patch處理上,將時間序列分成多個patch后,一般使用一個MLP進行映射,文中進一步使用MoA結(jié)構(gòu)處理patch。MoA是一個多個子模塊組成的patch信息處理器,每個子模塊使用一個稀疏門控網(wǎng)絡(luò),對表征的部分元素進行激活。通過多組這種子模塊的融合,每一組實現(xiàn)不同類型pattern的信息提取,最后加到一起,作為patch的表征。

在模型結(jié)構(gòu)方面,整體是Mamba->FFN->CNN->Transformer的組織方式。Mamba用來提取時序相關(guān)的基礎(chǔ)信息,F(xiàn)FN增加非線性,CNN擴大每個patch的視野,Transformer最終進行長周期的時間序列建模。

第二篇是PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting。這篇文章提出了一種融合Transformer、RNN、CNN的時間序列預(yù)測模型,其中RNN+CNN用來進行每個變量時間序列的時序維度編碼,Transformer用來進行變量間關(guān)系的建模,類似iTransformer的形式。

文中的核心是RNN+CNN構(gòu)建的層次時序編碼網(wǎng)絡(luò)。由于時間序列存在不同粒度的周期性,不同的粒度之間又存在關(guān)系著一定的關(guān)系。為了刻畫這種多頻率信息,文中采用了層次CNN的方式進行建模。對于每一層CNN,使用不同的kernel size和stride size,提取不同粒度的信息,并通過CNN起到了縮短序列長度的作用。

在進行每個層次的CNN編碼后,每一層的CNN編碼輸入與上一層CNN編碼融合后,輸入到GRU中,利用GRU的時序建模能力編碼每個粒度的序列。不同粒度的GRU編碼結(jié)果最后通過加權(quán)融合的方式,生成每個變量時間序列的最終表征結(jié)果。

在得到單變量的時序表征后,Transformer進行變量間關(guān)系建模。將每個變量時間序列的表征看成是一個token,使用self-attention在變量維度計算相關(guān)性并進行融合,類似iTransformer中的方式。

時序預(yù)測中的多類型模型組合建模方案-AI.x社區(qū)

3.總結(jié)

組合模型是時間序列預(yù)測中的一個重要研究問題。沒有一種模型結(jié)構(gòu)可以完美解決時間序列預(yù)測面臨的任何問題,通過各類模型結(jié)構(gòu)的組合,讓各個模型實現(xiàn)優(yōu)勢互補,可以很大程度上提升時間序列預(yù)測模型的性能。

本文轉(zhuǎn)載自 ??圓圓的算法筆記??,作者: Fareise

收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦