自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

2023時(shí)間序列預(yù)測(cè)熱門(mén)研究點(diǎn)總結(jié)

開(kāi)發(fā) 前端
2023年的時(shí)間序列領(lǐng)域的技術(shù)發(fā)展,除了上述一些研究點(diǎn)外,還有非常多其他的創(chuàng)新,整體感覺(jué)是越來(lái)越和NLP、CV等主流深度學(xué)習(xí)領(lǐng)域的研究融為一體了,這對(duì)于時(shí)間序列的發(fā)展也是極大的利好。

這篇文章給大家總結(jié)一下2023年中,時(shí)間序列預(yù)測(cè)領(lǐng)域的幾個(gè)熱門(mén)研究點(diǎn)。通過(guò)這些研究點(diǎn),我們可以挖掘時(shí)間序列預(yù)測(cè)領(lǐng)域的研究中,業(yè)內(nèi)在朝什么樣的方向發(fā)展,啟發(fā)我們?cè)谧约旱墓ぷ髦袑ふ液线m的創(chuàng)新點(diǎn)。

總結(jié)下來(lái),2023年有幾個(gè)非常熱的點(diǎn),在很多論文中被提起。主要包括以下幾個(gè):

  • 多元序列預(yù)測(cè)中變量的獨(dú)立、聯(lián)合建模;
  • 大模型+時(shí)間序列;
  • 多粒度時(shí)間序列建模

PatchTST框架的后續(xù)改進(jìn)方法

1、獨(dú)立/聯(lián)合建模

多元時(shí)間序列預(yù)測(cè)問(wèn)題中,從多變量建模方法的維度有兩種類型,一種是獨(dú)立預(yù)測(cè)(channel independent,CI),指的是把多元序列當(dāng)成多個(gè)單變量預(yù)測(cè),每個(gè)變量分別建模;另一種是聯(lián)合預(yù)測(cè)(channel dependent,CD),指的是多變量一起建模,考慮各個(gè)變量之間的關(guān)系。

CI方法只考慮單個(gè)變量,模型更簡(jiǎn)單,但是天花板也較低,因?yàn)闆](méi)有考慮各個(gè)序列之間的關(guān)系,損失了一部分關(guān)鍵信息;而CD方法考慮的信息更全面,但是模型也更加復(fù)雜。

圖片圖片

在最初的多元時(shí)間序列模型中,大家沒(méi)有特別關(guān)注這個(gè)問(wèn)題,都是把各個(gè)變量直接雜糅到一起輸入到模型中。PatchTST提取每個(gè)變量獨(dú)立的建模,完全抹掉各個(gè)變量之間的關(guān)系,并且取得了比多變量融合更優(yōu)的效果。這也開(kāi)啟了2023年對(duì)獨(dú)立預(yù)測(cè)、聯(lián)合預(yù)測(cè)的探討。文章主要圍繞著聯(lián)合預(yù)測(cè)有什么弊端,以及如何改進(jìn)展開(kāi)。

比如The Capacity and Robustness Trade-off: Revisiting the Channel Independent Strategy for Multivariate Time Series Forecasting這篇文章分析出大多數(shù)任務(wù)上獨(dú)立建模效果更好,是由于聯(lián)合建模太過(guò)復(fù)雜,更容易出現(xiàn)過(guò)擬合問(wèn)題,對(duì)時(shí)間序列分布變化的魯棒性差。

而CROSSFORMER: TRANSFORMER UTILIZING CROSSDIMENSION DEPENDENCY FOR MULTIVARIATE TIME SERIES FORECASTING等一系列文章則沒(méi)有放棄聯(lián)合建模,對(duì)聯(lián)合建模進(jìn)一步深入優(yōu)化,通過(guò)更精細(xì)化的多變量關(guān)系學(xué)習(xí),以及將時(shí)間維度預(yù)測(cè)和多變量間關(guān)系預(yù)測(cè)拆分成互不干擾的兩個(gè)模塊,提升多變量聯(lián)合建模的魯棒性。

圖片圖片

2、大模型+時(shí)間序列

在大模型的浪潮下,2023年涌現(xiàn)了一大批大模型+時(shí)間序列的工作。這篇文章為大家整理了2023年大模型時(shí)間序列模型的相關(guān)工作。大模型應(yīng)用到時(shí)間序列,有2種應(yīng)用類型。一種是將其他領(lǐng)域訓(xùn)練好的大模型,通過(guò)跨域自適應(yīng)的方式,遷移到時(shí)間序列領(lǐng)域;另一種是使用時(shí)間序列域內(nèi)本身的數(shù)據(jù),從頭開(kāi)始訓(xùn)練一個(gè)時(shí)間序列大模型,解決各類任務(wù)。

比如Large Language Models Are Zero-Shot Time Series Forecasters、TIME-LLM: TIME SERIES FORECASTING BY REPROGRAMMING LARGE LANGUAGE MODELS等文章,就是將NLP領(lǐng)域的預(yù)訓(xùn)練GPT適配到時(shí)間序列領(lǐng)域。適配方法,也從最初簡(jiǎn)單的將時(shí)間序列數(shù)據(jù)轉(zhuǎn)換成適配語(yǔ)言模型的輸入,到在模型中引入Adaptor的方式逐漸發(fā)展。

圖片圖片

而Lag-Llama: Towards Foundation Models for Time Series Forecasting、TimeGPT-1等文章,則是直接使用時(shí)間序列領(lǐng)域的數(shù)據(jù),訓(xùn)練時(shí)間序列大模型,模型結(jié)構(gòu)則和NLP中的GPT、Llama等保持一致,只做少量時(shí)間序列領(lǐng)域的適配。

圖片圖片

3、多粒度建模

使用patch進(jìn)行時(shí)間序列數(shù)據(jù)處理+Transformer模型結(jié)構(gòu)的方式逐漸成為時(shí)間序列預(yù)測(cè)的主流模型。然而,之前的很多工作,都使用一個(gè)固定的時(shí)間窗口進(jìn)行patch處理,降低了模型對(duì)于不同scale規(guī)律性的捕捉。這也衍生出一個(gè)研究點(diǎn):如何設(shè)計(jì)多粒度的patch方法,增強(qiáng)patch+Transformer的建模能力。

A Multi-Scale Decomposition MLP-Mixer for Time Series Analysis、Multi-resolution Time-Series Transformer for Long-term Forecasting等工作中,都提出了非常多多粒度建模的方式。這些建模方法引入了一個(gè)信息增益,就是時(shí)間序列具有不同粒度的季節(jié)性,一種粒度難以刻畫(huà),并且patch窗口的大小也不好設(shè)置。那就不如設(shè)置多種patch窗口大小,然后再用一個(gè)可學(xué)習(xí)的融合網(wǎng)絡(luò),將這些不同粒度的信息融合到一起。

圖片圖片

這種多粒度建模的方法,后續(xù)也逐漸會(huì)成為T(mén)ransformer時(shí)間序列建模方法的標(biāo)配。

4、PatchTST框架改進(jìn)

基于Patch+Transformer的時(shí)間序列預(yù)測(cè)模型在2022年成為主流,自然在2023年引入了一系列改進(jìn),包括輸入數(shù)據(jù)的組織形式、模型結(jié)構(gòu)、頻域等其他維度信息引入等多個(gè)方面。

像ITRANSFORMER: INVERTED TRANSFORMERS ARE EFFECTIVE FOR TIME SERIES FORECASTING這篇文章,將Transformer直接做了個(gè)反向操作,將原來(lái)在時(shí)間維度上構(gòu)建token embedding,改成了序列維度構(gòu)建token embedding,并利用attention學(xué)習(xí)各個(gè)變量序列之間的關(guān)系。非常簡(jiǎn)單的一個(gè)代碼實(shí)現(xiàn),就提升了Transformer在時(shí)間序列預(yù)測(cè)上的效果。

圖片圖片

而Take an Irregular Route: Enhance the Decoder of Time-Series Forecasting Transformer中,則是通過(guò)對(duì)Decoder的改進(jìn),使Transformer具備了層次信息融合的能力,從多個(gè)粒度利用Encoder各個(gè)編碼階段的信息,提升Transformer的時(shí)序預(yù)測(cè)效果。

圖片圖片

5、總結(jié)

2023年的時(shí)間序列領(lǐng)域的技術(shù)發(fā)展,除了上述一些研究點(diǎn)外,還有非常多其他的創(chuàng)新,整體感覺(jué)是越來(lái)越和NLP、CV等主流深度學(xué)習(xí)領(lǐng)域的研究融為一體了,這對(duì)于時(shí)間序列的發(fā)展也是極大的利好。為了更多的CV、NLP中成功的經(jīng)驗(yàn),都可以在時(shí)間序列中進(jìn)行適配和應(yīng)用。

責(zé)任編輯:武曉燕 來(lái)源: 圓圓的算法筆記
相關(guān)推薦

2022-07-15 16:14:39

深度學(xué)習(xí)時(shí)間序列理論

2024-05-09 16:23:14

2024-06-27 16:38:57

2024-02-21 14:32:09

2021-07-01 21:46:30

PythonHot-Winters數(shù)據(jù)

2021-04-07 10:02:00

XGBoostPython代碼

2023-10-13 15:34:55

時(shí)間序列TimesNet

2021-07-02 10:05:45

PythonHot-winters指數(shù)平滑

2024-07-18 13:13:58

2025-01-14 13:32:47

2023-03-16 18:09:00

機(jī)器學(xué)習(xí)數(shù)據(jù)集

2023-01-13 16:43:13

深度學(xué)習(xí)模型數(shù)據(jù)集

2022-08-16 09:00:00

機(jī)器學(xué)習(xí)人工智能數(shù)據(jù)庫(kù)

2010-11-03 13:36:51

DB2時(shí)間函數(shù)

2023-01-24 17:14:59

2023-01-30 17:10:23

DeepTime元學(xué)習(xí)

2017-11-20 11:51:40

KerasLSTM深度學(xué)習(xí)

2023-03-16 07:27:30

CnosDB數(shù)據(jù)庫(kù)

2024-09-04 16:36:48

2021-05-20 09:11:00

5G5G網(wǎng)絡(luò)5G終端
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)