八種時(shí)間序列分類方法總結(jié)
對(duì)時(shí)間序列進(jìn)行分類是應(yīng)用機(jī)器和深度學(xué)習(xí)模型的常見(jiàn)任務(wù)之一。本篇文章將涵蓋 8 種類型的時(shí)間序列分類方法。這包括從簡(jiǎn)單的基于距離或間隔的方法到使用深度神經(jīng)網(wǎng)絡(luò)的方法。這篇文章旨在作為所有時(shí)間序列分類算法的參考文章。
時(shí)間序列定義
在涵蓋各種類型的時(shí)間序列 (TS) 分類方法之前,我們先統(tǒng)一時(shí)間序列的概念,TS 可以分為單變量或多變量 TS。
- 單變量 TS 是一組有序的(通常)實(shí)數(shù)值。
- 多變量 TS 是一組單變量 TS。每個(gè)時(shí)間戳都是一個(gè)向量或?qū)崝?shù)值數(shù)組。
單或多元TS的數(shù)據(jù)集通常包含一個(gè)單或多元TS的有序集。此外,數(shù)據(jù)集通常包含由一個(gè)單一編碼的標(biāo)簽向量表示,其長(zhǎng)度表示不同類的標(biāo)簽。
TS分類的目標(biāo)是通過(guò)在給定數(shù)據(jù)集上訓(xùn)練任何分類模型來(lái)定義的,這樣模型就可以學(xué)習(xí)所提供數(shù)據(jù)集的概率分布。也就是說(shuō)當(dāng)給定TS時(shí),模型應(yīng)該學(xué)會(huì)正確地分配類標(biāo)簽。
基于距離的方法
基于距離或最近鄰的 TS 分類方法使用各種基于距離的度量來(lái)對(duì)給定數(shù)據(jù)進(jìn)行分類。它是一種監(jiān)督學(xué)習(xí)技術(shù),其中新 TS 的預(yù)測(cè)結(jié)果取決于與其最相似的已知時(shí)間序列的標(biāo)簽信息。
距離度量是描述兩個(gè)或多個(gè)時(shí)間序列之間距離的函數(shù),它是決定性的。典型的距離度量是:
- p 范數(shù)(如曼哈頓距離、歐幾里德距離等)
- 動(dòng)態(tài)時(shí)間規(guī)整 (DTW)
決定度量后,通常應(yīng)用 k 最近鄰 (KNN) 算法,該算法測(cè)量新 TS 與訓(xùn)練數(shù)據(jù)集中所有 TS 之間的距離。計(jì)算完所有距離后,選擇最近的 k 個(gè)。最后新的 TS 被分配到 k 個(gè)最近鄰居中的大多數(shù)所屬的類別。
雖然最流行的范數(shù)肯定是 p 范數(shù),尤其是歐幾里德距離,但它們有兩個(gè)主要缺點(diǎn),使它們不太適合 TS 分類任務(wù)。因?yàn)榉稊?shù)僅針對(duì)相同長(zhǎng)度的兩個(gè) TS 定義,實(shí)際上并不總是能夠得到長(zhǎng)度相等的序列。范數(shù)僅獨(dú)立比較每個(gè)時(shí)間點(diǎn)的兩個(gè) TS 值,但是大多數(shù) TS 值相互關(guān)聯(lián)。
而DTW 可以解決 p 范數(shù)的兩個(gè)限制。經(jīng)典的 DTW 可以最小化時(shí)間戳可能不同的兩個(gè)時(shí)間序列點(diǎn)之間的距離。這意味著輕微偏移或扭曲的 TS 仍然被認(rèn)為是相似的。下圖可視化了基于 p 范數(shù)的度量與 DTW 的工作方式之間的差異。
結(jié)合KNN,將DTW作為基準(zhǔn)基準(zhǔn)算法,用于TS分類的各種基準(zhǔn)評(píng)估。
KNN也可以有決策樹(shù)的方法實(shí)現(xiàn)。例如,鄰近森林算法建模了一個(gè)決策樹(shù)森林,使用距離度量來(lái)劃分TS數(shù)據(jù)。
基于區(qū)間和頻率的方法
基于區(qū)間的方法通常將TS分割為多個(gè)不同的區(qū)間。然后使用每個(gè)子序列來(lái)訓(xùn)練一個(gè)單獨(dú)的機(jī)器學(xué)習(xí)(ML)分類器。會(huì)生成一個(gè)分類器集合,每個(gè)分類器都作用于自己的區(qū)間。在單獨(dú)分類的子序列中計(jì)算最常見(jiàn)的類將返回整個(gè)時(shí)間序列的最終標(biāo)簽。
時(shí)間序列森林
基于區(qū)間的模型最著名的代表是時(shí)間序列森林(Time Series Forest)。TSF 是建立在初始 TS 的隨機(jī)子序列上的決策樹(shù)的集合。每棵樹(shù)負(fù)責(zé)將一個(gè)類分配給一個(gè)區(qū)間。
這是通過(guò)計(jì)算匯總特征(通常是均值、標(biāo)準(zhǔn)差和斜率)來(lái)為每個(gè)間隔創(chuàng)建特征向量來(lái)完成的。之后根據(jù)計(jì)算出的特征訓(xùn)練決策樹(shù),并通過(guò)所有樹(shù)的多數(shù)投票獲得預(yù)測(cè)。投票過(guò)程是必需的,因?yàn)槊靠脴?shù)只評(píng)估初始 TS 的某個(gè)子序列。
除了 TSF 之外,還有其他基于區(qū)間的模型。TSF 的變體使用附加特征,例如子序列的中值、四分位數(shù)間距、最小值和最大值。與經(jīng)典的 TSF 算法相比,還存在一種相當(dāng)復(fù)雜的算法,稱為 Random Interval Spectral Ensemble (RISE)算法。
RISE
RISE 算法在兩個(gè)方面有別于經(jīng)典的 TS 森林。
- 每棵樹(shù)使用單個(gè) TS 間隔
- 它是通過(guò)使用從 TS 中提取的光譜特征來(lái)訓(xùn)練的(而不是使用匯總統(tǒng)計(jì)數(shù)據(jù)作為均值、斜率等)
在 RISE 技術(shù)中,每個(gè)決策樹(shù)都建立在一組不同的傅里葉、自相關(guān)、自回歸和部分自相關(guān)特征之上。該算法按如下方式工作:
選擇 TS 的第一個(gè)隨機(jī)區(qū)間,并在這些區(qū)間上計(jì)算上述特征。然后通過(guò)組合提取的特征創(chuàng)建一個(gè)新的訓(xùn)練集。在這些基礎(chǔ)上,訓(xùn)練決策樹(shù)分類器。最后使用不同的配置重復(fù)這些步驟以創(chuàng)建集成模型,該模型是單個(gè)決策樹(shù)分類器的隨機(jī)森林。
基于字典的方法
基于字典的算法是另一類TS分類器,它基于字典的結(jié)構(gòu)。它們涵蓋了大量不同的分類器,有時(shí)可以與上述分類器結(jié)合使用。
這里是涵蓋的基于字典的方法列表:
- Bag-of-Patterns (BOP)
- Symbolic Fourier Approximation (SFA)
- Individual BOSS
- BOSS Ensemble
- BOSS in Vector Space
- contractable BOSS
- Randomized BOSS
- WEASEL
這類的方法通常首先將 TS 轉(zhuǎn)換為符號(hào)序列,通過(guò)滑動(dòng)窗口從中提取“WORDS”。然后通過(guò)確定“WORDS”的分布來(lái)進(jìn)行最終分類,這通常是通過(guò)對(duì)“WORDS”進(jìn)行計(jì)數(shù)和排序來(lái)完成的。這種方法背后的理論是時(shí)間序列是相似的,這意味著如果它們包含相似的“WORDS”則屬于同一類?;谧值涞姆诸惼髦饕^(guò)程通常是相同的。
- 在 TS 上運(yùn)行特定長(zhǎng)度的滑動(dòng)窗口
- 將每個(gè)子序列轉(zhuǎn)換為一個(gè)“WORDS”(具有特定長(zhǎng)度和一組固定字母)
- 創(chuàng)建這些直方圖
下面是最流行的基于字典的分類器的列表:
Bag-of-Patterns算法
模式袋(Bag-of-Patterns, BOP)算法的工作原理類似于用于文本數(shù)據(jù)分類的詞袋算法。這個(gè)算法計(jì)算一個(gè)單詞出現(xiàn)的次數(shù)。
從數(shù)字(此處為原始 TS)創(chuàng)建單詞的最常見(jiàn)技術(shù)稱為符號(hào)聚合近似 (SAX)。首先將 TS 劃分為不同的塊,每個(gè)塊之后都會(huì)標(biāo)準(zhǔn)化,這意味著它的均值為 0,標(biāo)準(zhǔn)差為 1。
通常一個(gè)詞的長(zhǎng)度比子序列中實(shí)數(shù)值的數(shù)量要長(zhǎng)。因此,進(jìn)一步對(duì)每個(gè)塊應(yīng)用分箱。然后計(jì)算每個(gè)分箱的平均實(shí)際值,然后將其映射到一個(gè)字母。例如,對(duì)于所有低于 -1 的平均值,分配字母“a”,所有大于 -1 和小于 1 的值“b”,所有高于 1 的值“c”。下圖形象化了這個(gè)過(guò)程。
這里每個(gè)段包含 30 個(gè)值,這些值被分成 6 個(gè)一組,每個(gè)組被分配三個(gè)可能的字母,構(gòu)成一個(gè)五個(gè)字母的單詞。最后匯總每個(gè)詞的出現(xiàn)次數(shù),并通過(guò)將它們插入最近鄰算法來(lái)用于分類。
Symbolic Fourier Approximation
與上述 BOP 算法的思想相反,在 BOP 算法中,原始 TS 被離散化為字母然后是單詞,可以對(duì) TS 的傅里葉系數(shù)應(yīng)用類似的方法。
最著名的算法是Symbolic Fourier Approximation (SFA),它又可以分為兩部分。
計(jì)算 TS 的離散傅立葉變換,同時(shí)保留計(jì)算系數(shù)的子集。
- 監(jiān)督:?jiǎn)巫兞刻卣鬟x擇用于根據(jù)統(tǒng)計(jì)數(shù)據(jù)(如 F 統(tǒng)計(jì)量或 χ2 統(tǒng)計(jì)量)選擇排名較高的系數(shù)
- 無(wú)監(jiān)督:通常取第一個(gè)系數(shù)的子集,代表TS的趨勢(shì)
結(jié)果矩陣的每一列都被獨(dú)立離散化,將 TS 的 TS 子序列轉(zhuǎn)換為單個(gè)單詞。
- 監(jiān)督:計(jì)算分箱邊緣,使得實(shí)例熵的雜質(zhì)標(biāo)準(zhǔn)最小化。
- 無(wú)監(jiān)督:計(jì)算分箱邊緣,使其基于傅立葉系數(shù)的極值(分箱是統(tǒng)一的)或基于這些的分位數(shù)(每個(gè)分箱中的系數(shù)數(shù)量相同)
基于上面的預(yù)處理,可以使用各種不同算法,進(jìn)一步處理信息以獲得 TS 的預(yù)測(cè)。
BOSS
Bag-of-SFA-Symbols (BOSS) 算法的工作原理如下:
- 通過(guò)滑動(dòng)窗口機(jī)制提取 TS 的子序列
- 在每個(gè)片段上應(yīng)用 SFA 轉(zhuǎn)換,返回一組有序的單詞
- 計(jì)算每個(gè)單詞的頻率,這會(huì)產(chǎn)生 TS 單詞的直方圖
- 通過(guò)應(yīng)用 KNN 等算法結(jié)合自定義 BOSS 度量(歐氏距離的微小變化)進(jìn)行分類。
BOSS算法的變體包含很多變體:
BOSS Ensemble
BOSS Ensemble算法經(jīng)常用于構(gòu)建多個(gè)單個(gè) BOSS 模型,每個(gè)模型在參數(shù)方面各不相同:字長(zhǎng)、字母表大小和窗口大小。通過(guò)這些配置捕捉各種不同長(zhǎng)度的圖案。通過(guò)對(duì)參數(shù)進(jìn)行網(wǎng)格搜索并僅保留最佳分類器來(lái)獲得大量模型。
BOSS in Vector Space
BOSS in Vector Space (BOSSVS) 算法是使用向量空間模型的個(gè)體 BOSS 方法的變體,該方法為每個(gè)類計(jì)算一個(gè)直方圖,并計(jì)算詞頻-逆文檔頻率 (TF-IDF) 矩陣。然后通過(guò)找到每個(gè)類的TF-IDF向量與TS本身的直方圖之間余弦相似度最高的類,得到分類。
Contractable BOSS
Contractable BOSS(cBOSS) 算法比經(jīng)典的 BOSS 方法在計(jì)算上快得多。
通過(guò)不對(duì)整個(gè)參數(shù)空間進(jìn)行網(wǎng)格搜索而是對(duì)從中隨機(jī)選擇的樣本進(jìn)行網(wǎng)格搜索來(lái)實(shí)現(xiàn)加速的。cBOSS 為每個(gè)基本分類器使用數(shù)據(jù)的子樣本。cBOSS 通過(guò)僅考慮固定數(shù)量的最佳基分類器而不是高于特定性能閾值的所有分類器來(lái)提高內(nèi)存效率。
Randomized BOSS
BOSS 算法的下一個(gè)變體是Randomized BOSS (RBOSS)。該方法在滑動(dòng)窗口長(zhǎng)度的選擇中添加了一個(gè)隨機(jī)過(guò)程,并巧妙地聚合各個(gè) BOSS 分類器的預(yù)測(cè)。這類似于 cBOSS 變體,減少了計(jì)算時(shí)間,同時(shí)仍保持基準(zhǔn)性能。
WEASE
通過(guò)在 SFA 轉(zhuǎn)換中使用不同長(zhǎng)度的滑動(dòng)窗口,TS 分類詞提取 (WEASEL) 算法可以提高標(biāo)準(zhǔn) BOSS 方法的性能。與其他 BOSS 變體類似,它使用各種長(zhǎng)度的窗口大小將 TS 轉(zhuǎn)換為特征向量,然后由 KNN 分類器對(duì)其進(jìn)行評(píng)估。
WEASEL 使用特定的特征推導(dǎo)方法,通過(guò)僅使用應(yīng)用 χ2 檢驗(yàn)的每個(gè)滑動(dòng)窗口的非重疊子序列進(jìn)行,過(guò)濾掉最相關(guān)的特征。
將 WEASEL 與Multivariate Unsupervised Symbols(WEASEL+MUSE)相結(jié)合,通過(guò)將上下文信息編碼到每個(gè)特征中從 TS 中提取和過(guò)濾多元特征。
基于 Shapelet 的方法
基于shapelets的方法使用初始時(shí)間序列的子序列(即shapelets)的思想。選擇shapelets是為了將它們用作類的代表,這意味著shapelets包含類的主要特征,這些特征可用于區(qū)分不同的類。在最優(yōu)的情況下,它們可以檢測(cè)到同一類內(nèi)TS之間的局部相似性。
下圖給出了一個(gè)shapelet的示例。它只是整個(gè)TS的子序列。
使用基于shapelets的算法需要確定使用哪個(gè)shapelets的問(wèn)題。可以通過(guò)手工制作一組shapelets來(lái)選擇,但這可能非常困難。也可以使用各種算法自動(dòng)選擇shapelets。
基于Shapelet提取的算法
Shapelet Transform是由Lines等人提出的一種基于Shapelet提取的算法,是目前最常用的算法之一。給定n個(gè)實(shí)值觀測(cè)值的TS, shapelet由長(zhǎng)度為l的TS的子集定義。
shapelet和整個(gè)TS之間的最小距離可以使用歐幾里德距離-或任何其他距離度量- shapelet本身和從TS開(kāi)始的所有長(zhǎng)度為l的shapelets之間的距離。
然后算法選出k個(gè)長(zhǎng)度屬于一定范圍的最佳shapelets。這一步可以被視為某種單變量特征提取,每個(gè)特征都由給定數(shù)據(jù)集中shapelet與所有TS之間的距離定義。然后根據(jù)一些統(tǒng)計(jì)數(shù)據(jù)對(duì)shapelets進(jìn)行排名。這些通常是f統(tǒng)計(jì)量或χ2統(tǒng)計(jì)量,根據(jù)它們區(qū)分類的能力對(duì)shapelets進(jìn)行排序。
完成上述步驟后,可以應(yīng)用任何類型的ML算法對(duì)新數(shù)據(jù)集進(jìn)行分類。例如基于knn的分類器、支持向量機(jī)或隨機(jī)森林等等。
尋找理想的shapelets的另一個(gè)問(wèn)題是可怕的時(shí)間復(fù)雜性,它會(huì)隨著訓(xùn)練樣本的數(shù)量成倍增加。
基于 Shapelet學(xué)習(xí)的算法
基于 Shapelet 學(xué)習(xí)的算法試圖解決基于 Shapelet 提取的算法的局限性。這個(gè)想法是學(xué)習(xí)一組能夠區(qū)分類的 shapelet,而不是直接從給定的數(shù)據(jù)集中提取它們。
這樣做有兩個(gè)主要優(yōu)點(diǎn):
- 它可以獲得不包含在訓(xùn)練集中但對(duì)類別具有強(qiáng)烈辨別力的 shapelet。
- 不需要在整個(gè)數(shù)據(jù)集上運(yùn)行算法,這可以顯著減少訓(xùn)練時(shí)間
但是這種方法也有一些使用可微分最小化函數(shù)和選擇的分類器引起的缺點(diǎn)。
要想代替歐幾里德距離,我們必須依賴可微分函數(shù),這樣可以通過(guò)梯度下降或反向傳播算法來(lái)學(xué)習(xí) shapelet。最常見(jiàn)的依賴于 LogSumExp 函數(shù),該函數(shù)通過(guò)取其參數(shù)的指數(shù)之和的對(duì)數(shù)來(lái)平滑地逼近最大值。由于 LogSumExp 函數(shù)不是嚴(yán)格凸函數(shù),因此優(yōu)化算法可能無(wú)法正確收斂,這意味著它可能導(dǎo)致糟糕的局部最小值。
并且由于優(yōu)化過(guò)程本身是算法的主要組成部分,所以還需要添加多個(gè)超參數(shù)進(jìn)行調(diào)優(yōu)。
但是該方法在實(shí)踐中非常有用,可以對(duì)數(shù)據(jù)產(chǎn)生一些新的見(jiàn)解。
基于核的方法
基于 shapelet 的算法的一個(gè)細(xì)微變化是基于核的算法。學(xué)習(xí)和使用隨機(jī)卷積核(最常見(jiàn)的計(jì)算機(jī)視覺(jué)算法),它從給定的 TS 中提取特征。
隨機(jī)卷積核變換 (ROCKET) 算法是專門為此目的而設(shè)計(jì)的。。它使用了大量的內(nèi)核,這些內(nèi)核在長(zhǎng)度、權(quán)重、偏置、膨脹和填充方面都不同,并且是從固定的分布中隨機(jī)創(chuàng)建的。
在選擇內(nèi)核后,還需要一個(gè)能夠選擇最相關(guān)的特征來(lái)區(qū)分類的分類器。原始論文中使用嶺回歸(線性回歸的 L2 正則化變體)來(lái)執(zhí)行預(yù)測(cè)。使用它有兩個(gè)好處,首先是它的計(jì)算效率,即使對(duì)于多類分類問(wèn)題也是如此,其次是使用交叉驗(yàn)證微調(diào)唯一的正則化超參數(shù)的非常的簡(jiǎn)單。
使用基于核的算法或 ROCKET 算法的核心優(yōu)勢(shì)之一是使用它們的計(jì)算成本相當(dāng)?shù)汀?/p>
基于特征的方法
基于特征的方法一般可以涵蓋大多數(shù)算法,這些算法對(duì)給定的時(shí)間序列使用某種特征提取,然后由分類算法執(zhí)行預(yù)測(cè)。
關(guān)于特征,從簡(jiǎn)單的統(tǒng)計(jì)特征到更復(fù)雜的基于傅里葉的特征。在hctsa(https://github.com/benfulcher/hctsa)中可以找到大量這樣的特性,但是嘗試和比較每個(gè)特性可能是一項(xiàng)無(wú)法完成的任務(wù),特別是對(duì)于較大的數(shù)據(jù)集。所以提出了典型時(shí)間序列特征(catch22)算法被提出了。
catch22算法
該方法旨在推斷一個(gè)小的TS特征集,不僅需要強(qiáng)大的分類性能,而且還可以進(jìn)一步最小化冗余。catch22從hctsa庫(kù)中總共選擇了22個(gè)特性(該庫(kù)提供了4000多個(gè)特性)。
該方法的開(kāi)發(fā)人員通過(guò)在93個(gè)不同的數(shù)據(jù)集上訓(xùn)練不同的模型來(lái)獲得22個(gè)特征,并評(píng)估其上表現(xiàn)最好的TS特征,得到了一個(gè)仍然保持出色性能的小子集。其上的分類器可以自由選擇,這使得它成為另一個(gè)超參數(shù)來(lái)進(jìn)行調(diào)優(yōu)。
Matrix Profile Classifier
另一種基于特征的方法是 Matrix Profile (MP) 分類器,它是一種基于 MP 的可解釋 TS 分類器,可以在保持基準(zhǔn)性能的同時(shí)提供可解釋的結(jié)果。
設(shè)計(jì)人員從基于shapelet的分類器中提取了名為Matrix Profile模型的。該模型表示 TS 的子序列與其最近鄰居之間的所有距離。這樣,MP 就能夠有效地提取 TS 的特征,例如motif和discord,motif 是 TS 的彼此非常相似的子序列,而discords 描述彼此不同的序列。
作為理論上的分類模型,任何模型都可以使用。這種方法的開(kāi)發(fā)者選擇了決策樹(shù)分類器。
除了這兩種提到的方法之外,sktime 還提供了一些更基于特征的 TS 分類器。
模型集成
模型集成本身不是一種獨(dú)立的算法,而是一種組合各種 TS 分類器以創(chuàng)建更好組合預(yù)測(cè)的技術(shù)。模型集成通過(guò)組合多個(gè)單獨(dú)的模型來(lái)減少方差,類似于使用大量決策樹(shù)的隨機(jī)森林。并且使用各種類型的不同學(xué)習(xí)算法會(huì)導(dǎo)致更廣泛和更多樣化的學(xué)習(xí)特征集,這反過(guò)來(lái)會(huì)獲得更好的類別辨別力。
最受歡迎的模型集成是 Hierarchical Vote Collective of Transformation-based Ensembles (HIVE-COTE)。它存在許多不同種類的相似版本,但它們的共同點(diǎn)是通過(guò)對(duì)每個(gè)分類器使用加權(quán)平均值來(lái)組合不同分類器的信息,即預(yù)測(cè)。
Sktime 使用兩種不同的 HIVE-COTE 算法,其中第一種結(jié)合了每個(gè)估計(jì)器的概率,其中包括一個(gè) shapelet 變換分類器 (STC)、一個(gè) TS 森林、一個(gè) RISE 和一個(gè) cBOSS。第二個(gè)由 STC、Diverse Canonical Interval Forest Classifier(DrCIF,TS 森林的變體)、Arsenal(ROCKET 模型的集合)和 TDE(BOSS 算法的變體)的組合定義。
最終的預(yù)測(cè)是由 CAWPE 算法獲得的,該算法為每個(gè)分類器分配權(quán)重,這些權(quán)重是通過(guò)在訓(xùn)練數(shù)據(jù)集上找到的分類器的相對(duì)估計(jì)質(zhì)量獲得的。
下圖是用于可視化 HIVE-COTE 算法工作結(jié)構(gòu)的常用圖示:
基于深度學(xué)習(xí)的方法
關(guān)于基于深度學(xué)習(xí)的算法,可以自己寫(xiě)一篇很長(zhǎng)的文章來(lái)解釋有關(guān)每種架構(gòu)的所有細(xì)節(jié)。但是本文只提供一些常用的 TS 分類基準(zhǔn)模型和技術(shù)。
雖然基于深度學(xué)習(xí)的算法在計(jì)算機(jī)視覺(jué)和 NLP 等領(lǐng)域非常流行并得到廣泛研究,但它們?cè)?TS 分類領(lǐng)域卻并不常見(jiàn)。Fawaz 等人。在他們關(guān)于 TS 分類的深度學(xué)習(xí)的論文中對(duì)當(dāng)前現(xiàn)有方法的詳盡研究:總結(jié)研究了具有六種架構(gòu)的 60 多個(gè)神經(jīng)網(wǎng)絡(luò) (NN) 模型:
- Multi-Layer Perceptron
- Fully Convolutional NN (CNN)
- Echo-State Networks (based on Recurrent NNs)
- Encoder
- Multi-Scale Deep CNN
- Time CNN
上述大多數(shù)模型最初是為不同的用例開(kāi)發(fā)的。所以需要根據(jù)不同的用例進(jìn)行測(cè)試。
在2020 年還發(fā)布了 InceptionTime 網(wǎng)絡(luò)。InceptionTime 是五個(gè)深度學(xué)習(xí)模型進(jìn)行的集成,其中每個(gè)模型都是由 Szegedy 等人首先提出的InceptionTime創(chuàng)建的。這些初始模塊同時(shí)將多個(gè)不同長(zhǎng)度的過(guò)濾器應(yīng)用于 TS,同時(shí)從 TS 的較短和較長(zhǎng)子序列中提取相關(guān)特征和信息。下圖顯示了 InceptionTime 模塊。
它由多個(gè)以前饋方式堆疊的初始模塊組成,并與殘差連接。最后是全局平均池化和全連接神經(jīng)網(wǎng)絡(luò)生成預(yù)測(cè)結(jié)果。
下圖顯示了單個(gè)初始模塊的工作情況。
總結(jié)
本文總結(jié)的大量的算法、模型和技術(shù)列表不僅能幫助理解時(shí)間序列分類方法的廣闊領(lǐng)域,希望對(duì)你有所幫助