自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

僅需200M參數,零樣本性能超越有監(jiān)督!谷歌發(fā)布時序預測基礎模型TimesFM

人工智能 新聞
TimesFM針對時序數據設計,輸出序列長于輸入序列,在1000億時間點數據進行預訓練后,僅用200M參數量就展現出超強零樣本學習能力!

時間序列預測在零售、金融、制造業(yè)、醫(yī)療保健和自然科學等各個領域無處不在:比如說在零售場景下中,「提高需求預測準確性」可以有顯著降低庫存成本并增加收入。

深度學習(DL)模型基本上壟斷了「多變量時間序列預測」任務,在各個競賽、現實應用中的表現都非常好。

與此同時,用于自然語言處理(NLP)任務的大型基礎語言模型也取得了快速進展,大幅提升了翻譯、檢索增強生成、代碼補全等任務的性能。

NLP模型的訓練依賴于海量文本數據,其中數據來源多種多樣,包括爬蟲、開源代碼等,訓練后的模型能夠識別語言中的模式,并具備零樣本學習的能力:比如說把大模型用在檢索任務時,模型可以回答有關當前事件的問題并對其進行總結。

盡管基于DL的預測器在很大程度上優(yōu)于傳統(tǒng)方法,并且在降低訓練和推理成本方面取得了進展,但仍然面臨著諸多難題:

大多數深度學習模型需要長時間的訓練和驗證周期,之后才能在新的時間序列上測試模型;相比之下,時間序列預測的基礎模型可以在不需要額外訓練的情況下,對沒見過的時間序列數據提供「開箱即用預測」,使用戶能夠專注于改進零售需求規(guī)劃等實際下游任務的預測。

最近,Google Research的研究人員提出了一個時序預測基礎模型TimesFM,在1000億個「真實世界時間點」上進行預訓練;與最新的大型語言模型(LLMs)相比,TimesFM的規(guī)模要小得多,只有200 M參數。

論文鏈接:https://arxiv.org/pdf/2310.10688.pdf

實驗結果表明,即使在這樣小的規(guī)模下,TimesFM在不同領域和時間粒度的各種未見過的數據集上的「零樣本性能」也接近于在這些數據集上明確訓練過的、最先進的、有監(jiān)督方法。

研究人員計劃今年晚些時候在Google Cloud Vertex AI中為外部客戶提供TimesFM模型。

基礎模型TimesFM

LLMs通常以僅解碼器(decoder-only)的方式進行訓練,包括三個步驟:

1. 文本被分解為稱為token的子詞(subwords)

2. tokens被饋送到堆疊的causal Transformer層,并生成與每個輸入token對應的輸出,需要注意的是,該層無法處理沒輸入的token,即future tokens

3. 對應于第i個token的輸出總結了來自先前token的所有信息,并預測第(i+1)個token

在推理期間,LLM每次生成一個token的輸出。

例如,當輸入提示「法國的首都是哪里?」(What is the capital of France?)時,模型可能會生成token為「The」,然后以該提示為條件生成下一個token「首都」(captial)等,直到模型生成完整的答案:「法國的首都是巴黎」(The capital of France is Paris)。

時間序列預測的基礎模型應該適應可變的上下文(模型觀察到的內容)和范圍(查詢模型預測的內容)長度,同時具有足夠的能力來編碼來自大型預訓練數據集的所有模式(patterns)。

與LLMs類似,研究人員使用堆疊的Transformer層(自注意力和前饋層)作為TimesFM模型的主要構建塊;在時間序列預測的背景下,把一個patch(一組連續(xù)的時間點)作為一個token,思路來源于最近的long-horizon forecasting工作:具體任務是預測在堆疊的Transformer層的末尾處,針對給定第i個輸出來預測第(i+1)個時間點patch

但TimesFM與語言模型有幾個關鍵的區(qū)別:

1. 模型需要一個具有殘差連接的多層感知器塊,將時間序列的patch轉換為token,其可以與位置編碼(PE)一起沿著輸入到Transformer層。為此,我們使用類似于我們以前在長期預測中的工作的殘差塊。

2. 來自堆疊的Transformer的輸出token可以用于預測比輸入patch長度更長的后續(xù)時間點的長度,即,輸出patch長度可以大于輸入patch長度。

假設,長度為512個時間點的時間序列被用于訓練具有「輸入patch長度32」和「輸出patch長度128」的TimesFM模型時:

在訓練期間,模型同時被訓練為使用前32個時間點來預測接下來的128個時間點,使用前64個時間點來預測時間點65至192,使用前96個時間點來預測時間點97至224等等。

假設輸入數據為長度為256的時間序列,并且其任務是預測未來的接下來的256個時間點,模型首先生成時間點257至384的未來預測,然后以初始256長度輸入加上生成的輸出為條件來生成時間點385至512。

另一方面,如果在模型中,輸出patch長度等于輸入patch長度32,那么對于相同的任務,模型經歷八次生成步驟而非2次,增加了錯誤累積的風險,因此在實驗結果中可以看到,更長的輸出patch長度會帶來更好的長期預測性能。

預訓練數據

就像LLMs可以通過更多token變得更好一樣,TimesFM需要大量合法的時間序列數據來學習和改進;研究人員花了大量的時間來創(chuàng)建和評估訓練數據集,發(fā)現兩個比較好的方法:

合成數據有助于基礎(Synthetic data helps with the basics)

可以使用統(tǒng)計模型或物理模擬生成有意義的合成時間序列數據,基本的時間模式可以引導模型學習時間序列預測的語法。

真實世界的數據增加了真實世界的感覺(Real-world data adds real-world flavor)

研究人員梳理了可用的公共時間序列數據集,并有選擇地將1000億個時間點的大型語料庫放在一起。

在數據集中,有Google趨勢和維基百科的頁面瀏覽量,跟蹤用戶感興趣的內容,并且很好地反映了許多其他真實世界時間序列的趨勢和模式,有助于TimesFM理解更大的圖景,可以針對「訓練期間沒見過的、特定領域上下文」提升泛化性能。

零樣本評估結果

研究人員使用常用的時間序列基準,針對訓練期間未見過的數據對TimesFM進行零樣本評估,可以觀察到TimesFM的性能優(yōu)于大多數統(tǒng)計方法,如ARIMA,ETS,并且可以匹配或優(yōu)于強大的DL模型,如DeepAR,PatchTST,這些模型已經在目標時間序列上進行了明確的訓練。

研究人員使用Monash Forecasting Archive來評估TimesFM的開箱即用性能,該數據集包含來自各個領域的數萬個時間序列,如交通、天氣和需求預測,覆蓋頻率從幾分鐘到每年的數據。

根據現有文獻,研究人員檢查了適當縮放的平均絕對誤差(MAE),以便在數據集上取平均值。

可以看到,zero-shot(ZS)TimesFM比大多數監(jiān)督方法都要好,包括最近的深度學習模型。還對比了TimesFM和GPT-3.5使用llmtime(ZS)提出的特定提示技術進行預測,結果證明了TimesFM的性能優(yōu)于llmtime(ZS)

在Monash數據集上,TimesFM(ZS)與其他有監(jiān)督和零樣本方法的比例MAE(越低越好)

大多數Monash數據集都是短期或中期的,也就是說預測長度不會太長;研究人員還測試了TimesFM對常用基準長期預測對最先進的基線PatchTST(和其他長期預測基線)。

研究人員繪制了ETT數據集上的MAE,用于預測未來96和192個時間點的任務,在每個數據集的最后一個測試窗口上計算指標。

TimesFM(ZS)的最后一個窗口MAE(越低越好)相對于ETT數據集上的llmtime(ZS)和長期預測基線

可以看到,TimesFM不僅超過了llmtime(ZS)的性能,而且與在相應數據集上顯式訓練的有監(jiān)督PatchTST模型的性能相匹配。

結論

研究人員使用1000億真實的世界時間點的大型預訓練語料庫訓練了一個僅用于解碼器的基礎模型,其中大部分是來自Google趨勢的搜索興趣時間序列數據和維基百科的頁面瀏覽量。

結果表明,即使是一個相對較小的200 M參數預訓練模型,使用TimesFM架構,在各種公共基準測試(不同的領域和粒度)中都展現出相當好的零樣本性能。

責任編輯:張燕妮 來源: 新智元
相關推薦

2021-09-08 17:23:33

谷歌模型開發(fā)

2023-04-10 09:23:36

模型AI

2023-08-22 14:39:00

模型訓練

2024-01-23 10:17:24

自動駕駛安全

2021-10-25 09:06:29

模型人工智能計算

2022-06-13 11:57:04

谷歌模型計算

2017-04-11 21:47:06

迅雷帶寬網絡

2025-02-07 10:10:05

MusicMagus擴散模型音樂編輯

2025-02-06 11:25:50

2024-07-31 14:06:00

2024-09-02 07:50:00

模型預測

2021-07-24 10:19:14

AI 數據克隆

2025-02-11 10:48:08

2018-09-19 13:49:54

寬帶無線網絡運營商

2024-08-28 14:20:00

數據模型

2019-05-09 08:10:19

寬帶網速網絡

2022-05-30 15:44:33

模型訓練GAN

2024-06-25 09:35:04

模型訓練

2016-12-27 15:21:18

2024-09-20 09:37:31

點贊
收藏

51CTO技術棧公眾號