自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

時(shí)間序列預(yù)測(cè)+NLP大模型新作:為時(shí)序預(yù)測(cè)自動(dòng)生成隱式Prompt

人工智能
由于時(shí)間序列的distribution shift等問(wèn)題,本文對(duì)輸入序列做了一步趨勢(shì)項(xiàng)季節(jié)項(xiàng)分解。每個(gè)分解后的時(shí)間序列,都單獨(dú)做標(biāo)準(zhǔn)化,然后分割成有重疊的patch。

今天給大家介紹一篇最新的大模型+時(shí)間序列預(yù)測(cè)工作,由康涅狄格大學(xué)發(fā)表,提出了一種將時(shí)間序列在隱空間和NLP大模型對(duì)齊,并利用隱空間prompt提升時(shí)間序列預(yù)測(cè)效果的方法。

圖片

論文標(biāo)題:S2IP-LLM: Semantic Space Informed Prompt Learning with LLM for Time Series Forecasting

下載地址:https://arxiv.org/pdf/2403.05798v1.pdf

1、問(wèn)題背景

大模型在時(shí)間序列上的應(yīng)用越來(lái)越多,主要分為兩類:第一類使用各類時(shí)間序列數(shù)據(jù)訓(xùn)練一個(gè)時(shí)間序列領(lǐng)域自己的大模型;第二類直接使用NLP領(lǐng)域訓(xùn)練好的文本大模型應(yīng)用到時(shí)間序列中。由于時(shí)間序列不同于圖像、文本,不同數(shù)據(jù)集的輸入格式不同、分布不同,且存在distribution shift等問(wèn)題,導(dǎo)致使用所有時(shí)間序列數(shù)據(jù)訓(xùn)練統(tǒng)一的模型比較困難。因此,越來(lái)越多的工作開始嘗試如何直接使用NLP大模型解決時(shí)間序列相關(guān)問(wèn)題。

本文的聚焦點(diǎn)也在第二種方法,即使用NLP大模型解決時(shí)間序列問(wèn)題。現(xiàn)有的方法很多采用對(duì)時(shí)間序列的描述作為prompt,但是這種信息并不是所有時(shí)間序列數(shù)據(jù)集都有。并且現(xiàn)有的基于patch的時(shí)間序列數(shù)據(jù)處理方法,也無(wú)法完全保存時(shí)間序列數(shù)據(jù)本身的所有信息。

基于上述問(wèn)題,這篇文章提出了一種新的建模方法,核心建模思路,一方面將時(shí)間序列通過(guò)tokenize處理后映射成embedding,另一方面將這些時(shí)間序列空間的表征對(duì)齊到大模型中的word embedding上。通過(guò)這種方式,讓時(shí)間序列的預(yù)測(cè)過(guò)程中,可以找到對(duì)齊的word embedding相關(guān)的信息作為prompt,提升預(yù)測(cè)效果。

圖片圖片

2、實(shí)現(xiàn)方法

下面從數(shù)據(jù)處理、隱空間對(duì)齊、模型細(xì)節(jié)等3個(gè)方面介紹一下這篇工作的實(shí)現(xiàn)方法。

數(shù)據(jù)處理:由于時(shí)間序列的distribution shift等問(wèn)題,本文對(duì)輸入序列做了一步趨勢(shì)項(xiàng)季節(jié)項(xiàng)分解。每個(gè)分解后的時(shí)間序列,都單獨(dú)做標(biāo)準(zhǔn)化,然后分割成有重疊的patch。每一組patch對(duì)應(yīng)趨勢(shì)項(xiàng)patch、季節(jié)項(xiàng)patch、殘差patch,將這3組patch拼接到一起,輸入到MLP中,得到每組patch的基礎(chǔ)embedding表征。

隱空間對(duì)齊:這是本文中最核心的一步。Prompt的設(shè)計(jì)對(duì)大模型的效果影響很大,而時(shí)間序列的prompt又難以設(shè)計(jì)。因此本文提出,將時(shí)間序列的patch表征和大模型的word embedding在隱空間對(duì)齊,然后檢索出topK的word embedding,作為隱式的prompt。具體做法為,使用上一步生成的patch embedding,和語(yǔ)言模型中的word embedding計(jì)算余弦相似度,選擇topK的word embedding,再將這些word embedding作為prompt,拼接到時(shí)間序列patch embedding的前方。由于大模型word embedding大多,為了減少計(jì)算量,先對(duì)word embedding做了一步映射,映射到數(shù)量很少的聚類中心上。

模型細(xì)節(jié):在模型細(xì)節(jié)上,使用GPT2作為語(yǔ)言模型部分,除了position embedding和layer normalization部分的參數(shù)外,其余的都凍結(jié)住。優(yōu)化目標(biāo)除了MSE外,還引入patch embedding和檢索出的topK cluster embedding的相似度作為約束,要求二者之間的距離越小越好。最終的預(yù)測(cè)結(jié)果,也是

圖片圖片

3、實(shí)驗(yàn)效果

文中對(duì)比了和一些時(shí)間序列大模型、iTransformer、PatchTST等SOTA模型的效果,在大部分?jǐn)?shù)據(jù)集的不同時(shí)間窗口的預(yù)測(cè)中都取得了比較好的效果提升。

圖片圖片

同時(shí),文中也通過(guò)t-SNE可視化分析了embedding,從圖中可以看出,時(shí)間序列的embedding在對(duì)齊之前并沒(méi)有明顯的類簇現(xiàn)象,而通過(guò)prompt生成的embedding有明顯的類簇變化,說(shuō)明本文提出的方法有效的利用文本和時(shí)間序列的空間對(duì)齊,以及相應(yīng)的prompt,提升時(shí)間序列表征的質(zhì)量。

圖片圖片

責(zé)任編輯:武曉燕 來(lái)源: 圓圓的算法筆記
相關(guān)推薦

2023-06-26 07:51:48

2023-10-13 15:34:55

時(shí)間序列TimesNet

2023-05-03 20:27:49

獨(dú)立預(yù)測(cè)聯(lián)合預(yù)測(cè)多元時(shí)序

2023-03-16 18:09:00

機(jī)器學(xué)習(xí)數(shù)據(jù)集

2024-05-09 16:23:14

2024-07-24 13:58:21

2023-11-06 07:27:38

模型NLP領(lǐng)域

2023-01-30 17:10:23

DeepTime元學(xué)習(xí)

2024-07-19 10:39:38

2024-09-19 13:40:00

2022-07-12 14:45:54

達(dá)摩院模型

2024-06-27 16:38:57

2022-11-24 17:00:01

模型ARDL開發(fā)

2024-09-03 08:16:08

2022-07-15 16:14:39

深度學(xué)習(xí)時(shí)間序列理論

2024-06-17 16:02:58

2021-07-02 10:05:45

PythonHot-winters指數(shù)平滑

2024-07-18 13:13:58

2025-01-14 13:32:47

2021-07-01 21:46:30

PythonHot-Winters數(shù)據(jù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)