自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

時序=圖像?無需微調(diào),視覺MAE跨界比肩最強時序預(yù)測大模型

人工智能 新聞
這篇論文證明了:計算機視覺和時間序列這兩個看似風(fēng)馬牛不相及的領(lǐng)域,可能具有密切聯(lián)系。

本文第一作者陳謀祥是浙江大學(xué)計算機四年級博士生,研究方向為時間序列預(yù)測、LLM 代碼生成和無偏排序?qū)W習(xí)。通訊作者劉成昊是 Salesforce 亞洲研究院高級科學(xué)家,曾提出時序預(yù)測基礎(chǔ)模型 Moirai。該工作由浙江大學(xué)、道富科技和 Salesforce 共同完成。

機器之心曾在兩個月前報道過,大語言模型(LLM)用于時序預(yù)測真的不行,連推理能力都沒用到。近期,浙大和 Salesforce 學(xué)者進一步發(fā)現(xiàn):語言模型或許幫助有限,但是圖像模型能夠有效地遷移到時序預(yù)測領(lǐng)域。

他們提出的 VisionTS 時序預(yù)測框架,基于何愷明的代表作 ——MAE 模型。VisionTS 從自然圖像(ImageNet)中預(yù)訓(xùn)練而無需時間序列微調(diào),即可直接跨界比肩(甚至超越)一眾強大的時序預(yù)測基礎(chǔ)模型,如 Moirai 和 TimesFM 等,而這些基礎(chǔ)模型均使用了大量時間序列數(shù)據(jù)預(yù)訓(xùn)練。

這篇論文證明了:計算機視覺和時間序列這兩個看似風(fēng)馬牛不相及的領(lǐng)域,可能具有密切聯(lián)系。其實,這也符合人類的習(xí)慣:我們很難從一串?dāng)?shù)字序列直接看出規(guī)律,但如果將其轉(zhuǎn)成一張時序趨勢圖,就能更容易地從中看出圖片變化的規(guī)律。

圖片

  • 論文題目:VisionTS: Visual Masked Autoencoders Are Free-Lunch Zero-Shot Time Series Forecasters
  • 論文地址:https://arxiv.org/abs/2408.17253
  • 代碼倉庫:https://github.com/Keytoyze/VisionTS

圖片

圖一:VisionTS 無需時序數(shù)據(jù)微調(diào),即可在零樣本情況下超越最大的時序基礎(chǔ)模型 Moirai。

近年來,預(yù)訓(xùn)練基礎(chǔ)模型(Foundation Models)已經(jīng)促進了自然語言處理(NLP)和計算機視覺(CV)領(lǐng)域的變革。通過在大量數(shù)據(jù)上進行預(yù)訓(xùn)練,這些模型在各種下游任務(wù)中表現(xiàn)出色,甚至在沒有見過的數(shù)據(jù)上也能很好地完成任務(wù)。

這種趨勢正在推動時間序列預(yù)測發(fā)生重大變化,從傳統(tǒng)的「單數(shù)據(jù)集訓(xùn)練單模型」 轉(zhuǎn)向「通用預(yù)測」,即采用一個預(yù)訓(xùn)練模型來處理不同領(lǐng)域的預(yù)測任務(wù)。

目前,訓(xùn)練能夠通用預(yù)測的時序預(yù)測基礎(chǔ)模型有兩條主要研究路徑。第一條路徑是嘗試把已經(jīng)在文本數(shù)據(jù)上訓(xùn)練好的 LLM 應(yīng)用于時間序列預(yù)測任務(wù)。然而,由于這兩種數(shù)據(jù)模式之間存在顯著差異,這種語言與時序之間的可遷移性最近受到了一些質(zhì)疑。

第二條路徑是從零開始收集大量來自不同領(lǐng)域的時間序列大數(shù)據(jù)集,直接訓(xùn)練一個基礎(chǔ)模型(如 Moirai,TimesFM 等)。然而,不同領(lǐng)域的時間序列數(shù)據(jù)之間在長度、頻率、維度和語義上有很大差異,這限制了他們之間的遷移效果。到目前為止,構(gòu)建高質(zhì)量的時間序列數(shù)據(jù)集仍然充滿挑戰(zhàn),處于探索階段。

在本文中,論文作者提出了創(chuàng)新的第三條路徑:用預(yù)訓(xùn)練好的視覺模型來構(gòu)建時序預(yù)測基礎(chǔ)模型。這是因為圖像中的像素變化可以自然地看作是時間序列。這一序列和現(xiàn)實中的時序數(shù)據(jù)有許多相似的特點:

1. 相似的形式:圖像和時序都是連續(xù)的,而語言是離散的。

2. 相似的起源:圖像和時序是自然信號,源于對真實世界物理現(xiàn)象的觀測結(jié)果,而語言是人類創(chuàng)造的。

3. 相似的信息密度:圖像和時間序列通常包含大量冗余數(shù)據(jù),而語言的密度更高。

4. 相似的時序特征:圖像中常見的許多特征也在真實世界的時間序列數(shù)據(jù)中出現(xiàn),而這些特征在語言中很少見,如下圖所示。

圖片圖二:ImageNet 上的一張圖片:像素變化序列經(jīng)常呈現(xiàn)出現(xiàn)實世界時間序列的特點,如趨勢性(Trend)、周期性(Seasonality)和穩(wěn)定性(Stationarity)。

基于這些見解,該論文希望回答這樣一個問題:一個在圖像上已經(jīng)訓(xùn)練好的視覺模型,能否直接作為通用時間序列預(yù)測的基礎(chǔ)模型,一站式加入午餐豪華大禮包?

方法:基于何愷明的視覺 MAE

來預(yù)測時間序列

圖片

圖三:VisionTS 架構(gòu)。

該論文基于提示學(xué)習(xí)(prompt learning)的思想,將時間序列預(yù)測任務(wù)重構(gòu)為 MAE 預(yù)訓(xùn)練使用的塊級圖像補全任務(wù)。思路很簡單:將時間序列的歷史窗口轉(zhuǎn)變?yōu)榭梢姷膱D像塊(visible patches),預(yù)測窗口轉(zhuǎn)變?yōu)楸徽趽醯膱D像塊(masked patches),如圖三所示。

1. 分割(Segmentation)

對于一個長度為 L 的輸入序列窗口,第一個目標(biāo)是將其轉(zhuǎn)換為二維矩陣。首先將其分割成 L/P 個長度為 P 的子序列,其中 P 是周期長度(如果時間序列沒有明顯的周期性,可以直接設(shè)置 P=1)。接著,這些子序列被堆疊成一個二維矩陣,形狀 (P, L/P)。

2. 標(biāo)準(zhǔn)化(Normalization)

MAE 會對輸入進行標(biāo)準(zhǔn)化。因此,該論文提出標(biāo)準(zhǔn)化二維矩陣,將其轉(zhuǎn)變?yōu)闃?biāo)準(zhǔn)差為 0.4 左右的數(shù)據(jù)。

3. 渲染(Render)

眾所周知,每個圖像有三個通道。該論文簡單地將歸一化后的矩陣渲染為灰度圖像,也就是三個通道都相同。

4. 對齊(Alignment)

考慮到預(yù)訓(xùn)練時圖像的大小可能與這一矩陣大小不匹配,該論文提出將圖像的尺寸從原始的 (P, L/P) 調(diào)整為適合 MAE 輸入的尺寸。論文作者選擇雙線性插值來調(diào)整尺寸。

5. 重建與預(yù)測(Reconstruction & Forecasting)

在得到 MAE 重建的圖像后,可以簡單地逆轉(zhuǎn)之前的步驟來進行預(yù)測。具體來說,論文作者選擇將重建的整個圖像重新調(diào)整回時間序列的分段,然后提取出預(yù)測窗口。

實驗效果

測試結(jié)果顯示,VisionTS 在涵蓋多個領(lǐng)域的35個基準(zhǔn)數(shù)據(jù)集上表現(xiàn)出色,涉及時序預(yù)測的各種場景。

下表展示了部分數(shù)據(jù),其中 VisionTS 在無需時序數(shù)據(jù)微調(diào)的情況下,能夠驚人地達到最佳預(yù)測性能。零樣本情況下,能夠比肩甚至超越 Moirai(一個在 27B 通用時序數(shù)據(jù)上訓(xùn)練的時序大模型),甚至超越了少樣本訓(xùn)練的 LLM(TimeLLM 和 GPT4TS)以及其他常用的時序預(yù)測模型。

圖片

這些結(jié)果顯示,圖像→時間序列的遷移能力要強于文本→時間序列,甚至與不同時序數(shù)據(jù)領(lǐng)域之間的相互遷移能力相當(dāng)。

下圖展示了 VisionTS 的一個預(yù)測樣例,包括輸入圖像(a)、重建圖像(b)以及對應(yīng)的預(yù)測曲線(c)??梢园l(fā)現(xiàn),VisionTS 恰當(dāng)?shù)夭蹲搅诉@一數(shù)據(jù)的周期性和趨勢性,而 Moirai 和 Seasonal Na?ve 忽略了趨勢性。

圖片

更多研究細節(jié),可參考原論文。

責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2024-04-11 07:10:59

大語言模型AI人工智能

2023-05-03 20:27:49

獨立預(yù)測聯(lián)合預(yù)測多元時序

2024-03-18 00:00:03

時間序列Prompt模型

2022-07-12 14:45:54

達摩院模型

2023-06-26 07:51:48

2020-10-05 22:00:59

深度學(xué)習(xí)編程人工智能

2024-12-09 13:18:56

2017-11-20 11:37:19

時序數(shù)據(jù)數(shù)據(jù)存儲HBase

2022-07-12 10:37:08

阿里巴巴達摩院機器學(xué)習(xí)

2023-04-18 17:23:00

Meta開源

2025-03-10 09:22:00

2023-06-07 08:22:59

LLM微調(diào)技術(shù)

2024-08-16 14:20:00

模型微調(diào)

2023-10-27 09:34:34

攜程應(yīng)用

2024-11-25 07:10:00

NumPro視頻大模型AI

2010-06-10 09:32:21

UML時序圖

2024-09-30 09:29:18

2023-07-14 07:15:13

2024-12-30 20:32:36

2024-09-09 07:46:16

點贊
收藏

51CTO技術(shù)棧公眾號