自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

大語言模型對時間序列預測真的有用嗎?

人工智能
我們已經(jīng)看到了語言模型的巨大進步,但時間序列任務(wù),如預測呢?今天我們推薦一篇論文,對現(xiàn)有的語言模型和時間序列做了深入的研究。將探討了是否可以從大型語言模型(LLMs)中獲益于時間序列(TS)預測。

我們已經(jīng)看到了語言模型的巨大進步,但時間序列任務(wù),如預測呢?今天我們推薦一篇論文,對現(xiàn)有的語言模型和時間序列做了深入的研究。將探討了是否可以從大型語言模型(LLMs)中獲益于時間序列(TS)預測。

時間序列

時間序列是機器學習中最具挑戰(zhàn)性的工作領(lǐng)域之一,解決時間序列任務(wù),如異常檢測、時間序列預測等,在多個行業(yè)中至關(guān)重要,能夠節(jié)省大量資金。

由OpenAI發(fā)起的規(guī)?;▌t顯示,模型能在更多原始數(shù)據(jù)上更好地泛化結(jié)果就得到了ChatGPT。自那以后,大型語言模型(LLMs)吸引了所有人的注意。

自那以后,研究者們一直在嘗試將LLMs用于時間序列!這在某種程度上是有道理的,因為無論是語言數(shù)據(jù)還是時間序列都是序列數(shù)據(jù),研究者認為如果LLMs能在語言數(shù)據(jù)上表現(xiàn)出良好的泛化能力,那么它可能也適用于時間序列。

關(guān)于這方面有很多酷炫的研究成果,但問題是“有多少LLMs真正適用于時間序列任務(wù)?”

我認為一些工作展示了時間序列的光明未來,例如使用LLMs實現(xiàn)的時間序列推理和理解(代理)等。

時間序列推理:

使用大型語言模型(LLMs)進行時間序列推理可以通過整合三種主要的分析任務(wù)來增強時間序列推理:因果推理、問答和輔助上下文預測。

因果推理涉及假設(shè)觀察到的時間序列模式背后的潛在原因,使模型能夠識別最有可能產(chǎn)生給定時間序列數(shù)據(jù)的場景。

問答使模型能夠解釋和回應(yīng)關(guān)于時間序列的事實性查詢,如識別趨勢或?qū)?shù)據(jù)變化進行反事實推斷。

輔助上下文預測允許模型利用額外的文本信息來增強對未來數(shù)據(jù)點的預測,整合相關(guān)上下文以提高預測準確性。

但當前的LLMs在這些任務(wù)中表現(xiàn)出有限的熟練程度,比如在因果和問答任務(wù)中的表現(xiàn)僅略高于隨機水平,并在輔助上下文預測中顯示出適度的改進。

社會理解:

使用大型語言模型(LLMs)進行時間序列分析可以顯著提高社會理解,使代理能夠系統(tǒng)地分析和預測社會趨勢和行為?;贚LM的代理使用來自財經(jīng)、經(jīng)濟、民調(diào)和搜索趨勢等多個領(lǐng)域的真實世界時間序列數(shù)據(jù)來近似社會的隱藏狀態(tài)。這種近似有助于通過將時間序列數(shù)據(jù)與新聞和社交媒體等其他信息源相關(guān)聯(lián),對社會行為進行假設(shè)和驗證。

通過整合這些多樣化的數(shù)據(jù)流,LLMs能夠深入洞察多面且動態(tài)的社會問題,促進包含邏輯和數(shù)字分析的復雜和混合推理。

這種方法確保代理不僅僅是執(zhí)行歷史數(shù)據(jù)擬合,而是積極與不斷流動的真實世界數(shù)據(jù)互動并適應(yīng),使其分析和預測在真實場景中保持相關(guān)和適用。

但是當涉及到時間序列時,這些新模型并沒有使用預訓練的LMs的自然推理能力。

LLMs對時間序列任務(wù)真的有幫助嗎?

一項新研究顯示,如果我們用注意力層替換語言模型,性能不會有顯著變化。即使完全移除它們,性能會變得更好。這甚至可以將訓練和推理速度提高多達三個數(shù)量級。

研究者選擇了三種改造方法:刪除或替換LLM組件。這三種修改如下:

不使用LLM(圖1(b))。完全移除語言模型,將輸入令牌直接傳遞給參考方法的最后一層。

LLM2Attn(圖1(c))。用一個單獨的隨機初始化的多頭注意力層替換語言模型。

LLM2Trsf(圖1(d))。用一個單獨的隨機初始化的Transformer塊替換語言模型。

測試結(jié)果

使用的數(shù)據(jù)集主要是所有其他時間序列研究中的基準數(shù)據(jù)集:ETT、疾病、天氣、交通、電力、匯率、Covid死亡人數(shù)、出租車(30分鐘)、NN5(每日)和FRED-MD。

在所有情況下,這些改造方法都優(yōu)于Time-LLM,在22個中的26個案例中優(yōu)于LLaTA,在19個中的26個案例中優(yōu)于OneFitsAll。這里使用的指標是MAE和MSE,分別代表平均絕對誤差和均方誤差。

可以得出的結(jié)論是,LLMs在時間序列預測任務(wù)上并沒有以有意義的方式提高性能。

現(xiàn)在讓我們看一下參數(shù)和時間消耗:

在時間序列任務(wù)中,LLM(如LLaMA和GPT-2)顯著增加了訓練時間。表格顯示了在ETTh1和Weather數(shù)據(jù)上,對長度為96的預測,三種方法的模型參數(shù)數(shù)量(以百萬計)和總訓練時間(以分鐘計)。與原始方法“帶LLM”的比較是“不帶LLM”,“LLM2Attn”和“LLM2Trsf”。

Time-LLM、OneFitsAll和LLaTA的平均訓練時間分別是修改后模型的28.2倍、2.3倍和1.2倍。這表明,LLMs在時間序列計算上的權(quán)衡并不值得。

那么使用語言數(shù)據(jù)集進行預訓練是否能夠改善時間序列預測的結(jié)果?

該研究采用了四種不同的組合:預訓練 + 微調(diào)、隨機初始化 + 微調(diào)、預訓練 + 不微調(diào)以及隨機初始化 + 不微調(diào)。

隨機初始化LLM參數(shù)并從頭開始訓練(無預訓練,woPre)比使用預訓練(Pre)模型取得了更好的結(jié)果。“無微調(diào)”(woFT)和“微調(diào)”(FT)分別指的是LLM參數(shù)是凍結(jié)的還是可訓練的。

語言知識對預測的改進非常有限。然而,“預訓練 + 不微調(diào)”和基線“隨機初始化 + 不微調(diào)”分別在少樣本(5次)和零樣本的比較中表現(xiàn)最好,這暗示在微調(diào)過程中語言知識并沒有幫助。

在ETTh1(預測長度為96)和Illness(預測長度為24)的輸入打亂/遮蔽實驗中,模型修改前后,輸入打亂對時間序列預測性能的影響并沒有顯著變化。

在這個實驗中,使用了三種類型的打亂方式:隨機洗牌整個序列(“sf-all”),只洗牌序列的前半部分(“sf-half”),以及交換序列的前半部和后半部(“ex-half”)。

結(jié)果表明,基于LLM的模型對輸入打亂的脆弱性并不比其改造版本更高。

總結(jié)

這項研究表明,最好還是讓傳統(tǒng)的時間序列預測方法繼續(xù)使用它們習慣的方式,而不是嘗試使用大型語言模型來處理時間序列任務(wù)。

但是這并不意味著不做任何事情;在時間序列和大型語言模型的交叉領(lǐng)域,還有一些新的、可能值得探索的有趣方向。

責任編輯:華軒 來源: DeepHub IMBA
相關(guān)推薦

2016-10-28 11:55:10

2009-12-11 09:09:46

Windows 7全球派對

2019-06-06 10:00:22

2024-09-03 08:16:08

2023-10-13 15:34:55

時間序列TimesNet

2013-09-03 15:16:05

軟件專利軟件

2023-11-06 07:27:38

模型NLP領(lǐng)域

2024-03-18 00:00:03

時間序列Prompt模型

2023-03-16 18:09:00

機器學習數(shù)據(jù)集

2020-12-03 14:59:31

Python編程工具

2023-06-26 07:51:48

2023-06-13 07:50:49

Gopher格式化時間

2023-01-30 17:10:23

DeepTime元學習

2022-07-29 15:47:33

時間輪環(huán)狀數(shù)組

2016-09-18 15:06:50

LinuxSnap打包方式

2022-11-24 17:00:01

模型ARDL開發(fā)

2024-08-30 17:32:30

2021-08-06 21:16:08

人臉識別AI人工智能

2024-05-09 16:23:14

2024-06-17 16:02:58

點贊
收藏

51CTO技術(shù)棧公眾號