自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

一文帶你了解機器人是如何通過視覺實現(xiàn)目標跟蹤的

人工智能 機器學習 新聞
本文主要介紹什么是視覺目標跟蹤(單目標跟蹤)、單目標跟蹤的基本結(jié)構(gòu)(框架),目標跟蹤存在的挑戰(zhàn),目標跟蹤經(jīng)典相關(guān)方法及研究趨勢等。

Abstract:視覺跟蹤技術(shù)是計算機視覺領(lǐng)域(人工智能分支)的一個重要課題,有著重要的研究意義。在軍事制導、視頻監(jiān)控、機器人視覺導航、人機交互、以及醫(yī)療診斷等許多方面有著廣泛的應用前景。隨著研究人員不斷地深入研究,視覺目標跟蹤在近十幾年里有了突破性的進展,使得視覺跟蹤算法不僅僅局限于傳統(tǒng)的機器學習方法,更是結(jié)合了近些年人工智能熱潮—深度學習(神經(jīng)網(wǎng)絡)和相關(guān)濾波器等方法。本文主要介紹以下幾點:什么是視覺目標跟蹤(單目標跟蹤)、單目標跟蹤的基本結(jié)構(gòu)(框架),目標跟蹤存在的挑戰(zhàn),目標跟蹤經(jīng)典相關(guān)方法及研究趨勢等。

01 單目標跟蹤任務簡介

目標跟蹤是計算機視覺領(lǐng)域的一個重要問題,目前廣泛應用在體育賽事轉(zhuǎn)播、安防監(jiān)控和無人機、無人車、機器人等領(lǐng)域。下面是一些應用的例子。

車輛跟蹤

足球比賽

田徑比賽

視覺目標(單目標)跟蹤是指對圖像序列中的運動目標進行檢測、提取、識別和跟蹤,獲得運動目標的運動參數(shù),如位置、速度、加速度和運動軌跡等,從而進行下一步的處理與分析,實現(xiàn)對運動目標的行為理解,以完成更高一級的檢測任務。 

其具體任務即根據(jù)所跟蹤的視頻序列給定初始幀(第一幀)的目標狀態(tài)(位置、尺度),預測后續(xù)幀中該目標狀態(tài)?;窘Y(jié)構(gòu)(框架)如下:

基本流程:輸入初始幀并指定期望跟蹤的目標,通常用矩形框標定(Input Frame),在下一幀中產(chǎn)生眾多候選框(Motion Model)并提取這些候選框的特征(Feature Extractor),觀測模型(Observation Model)對這些候選框評分。最后在這些評分中找一個得分最高的候選框作為預測的目標(Prediction A),或者對多個預測值進行融合(Ensemble)得到更優(yōu)的預測目標。至此算法完成了根據(jù)第一幀的信息對第二幀的預測,后續(xù)幀以此類推,同時根據(jù)指定規(guī)則更新模型(Model Updater)。

根據(jù)如上的框架,將目標跟蹤劃分為五項主要的研究內(nèi)容,流程圖下圖所示:

流程圖

  1. 運動模型(Motion Model):如何產(chǎn)生眾多的候選樣本。
  2. 特征提?。‵eature Extractor):利用何種特征表示目標。
  3. 觀測模型(Observe Model):如何對眾多候選樣本評分。
  4. 模型更新(Model Updater):如何更新觀測模型使其適應目標的變化。
  5. 集成方法(Ensemble):如何融合多個決策獲得一個更有的決策結(jié)構(gòu)。

下圖的總結(jié)可以幫助更好的理解目標跟蹤算法是如何完成跟蹤任務的。

跟蹤任務流程

02 目標跟蹤算法分類

大多數(shù)的跟蹤方法主要集中對觀測模型的設(shè)計,根據(jù)觀測模型的不同可分為兩類:生成式模型(Generative Model)和判別式模型(Discriminative Model)。

  • 生成式模型:通過提取目標特征來構(gòu)建表觀模型,然后在圖像中搜索與模型最匹配的區(qū)域作為跟蹤結(jié)果。不論采用全局特征還是局部特征,生成式模型的本質(zhì)是在目標表示的高維空間中,找到與目標模型最相鄰的候選目標作為當前估計。此類方法的缺陷在于只關(guān)注目標信息,而忽略了背景信息,在目標外觀發(fā)生劇烈變化或者遮擋時候容易出現(xiàn)目標漂移(drift)或者目標丟失。

舉例:跟蹤器從當前幀知道了目標區(qū)域80%是紅色,20%是綠色,在下一幀中搜索算法回去找最符合這個顏色比例的區(qū)域。

生成式算法框架

  • 判別式方法:將目標跟蹤看做是一個二元分類問題,通過訓練關(guān)于目標和背景的分類器將目標從背景中分離出來,從候選目標中確定目標,該方法可以顯著的區(qū)分背景和目標,性能魯棒,漸漸成為目標跟蹤領(lǐng)域主流方法。且目前大多數(shù)基于深度學習的目標跟蹤算法也屬于判別式方法。

舉例:在訓練時告訴跟蹤器,目標80%是紅色,20%是綠色,同時背景中有桔紅色,要格外注意,這樣分類器知道更多信息,效果也相對較好。

判別式算法框架

03 目標跟蹤任務的困難和挑戰(zhàn)

雖然目標追蹤的應用前景非常廣泛,但還是有一些問題限制了它的應用,主要問題例舉如下:

  • 形態(tài)變化 - 姿態(tài)變化是目標跟蹤中常見的干擾問題。運動目標發(fā)生姿態(tài)變化時, 會導致它的特征以及外觀模型發(fā)生改變, 容易導致跟蹤失敗。例如:體育比賽中的運動員、馬路上的行人。
  • 尺度變化 - 尺度的自適應也是目標跟蹤中的關(guān)鍵問題。當目標尺度縮小時, 由于跟蹤框不能自適應跟蹤, 會將很多背景信息包含在內(nèi), 導致目標模型的更新錯誤:當目標尺度增大時, 由于跟蹤框不能將目標完全包括在內(nèi), 跟蹤框內(nèi)目標信息不全, 也會導致目標模型的更新錯誤。因此, 實現(xiàn)尺度自適應跟蹤是十分必要的。
  • 遮擋與消失 - 目標在運動過程中可能出現(xiàn)被遮擋或者短暫的消失情況。當這種情況發(fā)生時, 跟蹤框容易將遮擋物以及背景信息包含在跟蹤框內(nèi), 會導致后續(xù)幀中的跟蹤目標漂移到遮擋物上面。若目標被完全遮擋時, 由于找不到目標的對應模型, 會導致跟蹤失敗。
  • 圖像模糊 - 光照強度變化, 目標快速運動, 低分辨率等情況會導致目標模糊, 尤其是在運動目標與背景相似的情況下更為明顯。因此, 選擇有效的特征對目標和背景進行區(qū)分非常必要。

下圖是上述問題的一些實例。

目標跟蹤任務中的困難與挑戰(zhàn)

如上圖所示,目標跟蹤任務中的困難和挑戰(zhàn)包括:

1.形變,2.光照變化,3.相似干擾,4.運動模糊,5.背景干擾,6.遮擋,7.超出畫面,8.尺度變化,9.平面外宣傳,10.平面內(nèi)旋轉(zhuǎn),11.背景相似

04 目標跟蹤的數(shù)據(jù)庫

嚴謹?shù)臄?shù)據(jù)集是驅(qū)動算法的關(guān)鍵,前幾年目標跟蹤方向的數(shù)據(jù)庫資源相對匱乏,這也是目標跟蹤的發(fā)展相對落后于目標檢測的重要原因之一。下面簡要介紹了兩個權(quán)威的目標跟蹤方向的數(shù)據(jù)庫。

OTB50數(shù)據(jù)集

OTB可以說是做單目標跟蹤必跑的數(shù)據(jù)庫了,2013年的OTB50包含50個人工標注的視頻序列。由于在此之前目標跟蹤方向沒有比較公認的數(shù)據(jù)庫,所有的單跟蹤算法沒有一個統(tǒng)一的衡量,所以這個數(shù)據(jù)庫的意義非常重大,直接促進了單目標跟蹤算法的發(fā)展。后來又擴展為OTB100發(fā)送到TPAMI,有100個序列,難度更大更加權(quán)威。如果想要了解近年來比較厲害的跟蹤算法,可以參考吳毅老師的論文(附后)。

VOT數(shù)據(jù)庫

VOT Challenge是目標跟蹤領(lǐng)域的賽事,類似于圖形識別領(lǐng)域中的ImageNet挑戰(zhàn)賽。這些賽事通常都是標準數(shù)據(jù)集的來源,所以VOT數(shù)據(jù)集是一個常用的目標跟蹤數(shù)據(jù)集,所有序列支持免費下載。VOT競賽已經(jīng)舉辦了9屆,每年競賽都會出現(xiàn)很多新的算法和別致的思路,2022年的VOT競賽也即將開啟,由于每年的評測序列都會更新,且標注的精確度逐年提高,VOT競賽也被視為視覺跟蹤領(lǐng)域最難的競賽,所以結(jié)果相對更可靠。

OTB和VOT區(qū)別:OTB包括25%的灰度序列,而VOT都是彩色序列,這也是造成很多顏色特征算法性能差異的原因。兩個庫的評價指標不盡相同,具體請參考論文和競賽官網(wǎng)。

05 目標跟蹤經(jīng)典算法

前幾年最熱門的生成式跟蹤方法是稀疏編碼(Sparse Coding), 而近來判別式跟蹤方法逐漸占據(jù)了主流地位,以相關(guān)濾波(CF:Correlation Filter)和深度學習(DL:Deep Learning)為代表的判別式方法取得了令人滿意的效果。本節(jié)按年份順序?qū)?jīng)典算法進行一個簡單地梳理,其中各個算法的年份以論文發(fā)表的年份或者參加benchmark的年份為依據(jù),幫助理解單目標跟蹤算法的演變和發(fā)展趨勢。針對于不同的跟蹤任務的挑戰(zhàn)各個算法所提出的解決思想值得我們學習體會,跟蹤算法的發(fā)展趨勢可見一斑。

1981

  • LK Tracker 1981

LK Tracker應該是最早的目標跟蹤工作,它使用了光流的概念,如下圖所示,不同顏色表示光流不同的方向,顏色的深淺表示運動的速度。光流的計算非常簡單也非???,但是它的魯棒性不好,基本上只能對平移且外觀不變的物體進行跟蹤。

光流法

2002

  • Mean Shift

Mean Shift采用均值漂移作為搜索策略,這是一種無參概率估計方法,該方法利用圖像特征直方圖構(gòu)造空間平滑的概率密度函數(shù),通過沿著概率密度函數(shù)的梯度方向迭代,搜索函數(shù)局部最大值。在當時成為了常用的目標跟蹤方法,簡單易實現(xiàn),但魯棒性較低。

MeanShift算法

2010

  • MOSSE

MOSSE(Minimum Output Sum of Squared Error)使用相關(guān)濾波來做目標跟蹤(不是第一個,但由于思路清晰、算法完整稱為相關(guān)濾波跟蹤算法的鼻祖),其速度能夠達到600多幀每秒,但是效果一般,主要是因為它只使用了簡單的原始像素特征。

大致流程:

  1. 再入初始幀的groundtruth(包括中心點和矩形框的高寬)
  2. 對當前目標框進行隨機仿射變換生成128個樣本,每個樣本經(jīng)過高斯函數(shù)計算得出響應值,最終結(jié)合公式得出濾波器模版(圖13中的FILTER)。
  3. 根據(jù)模版計算得出第二幀的響應圖,其中響應值最大的點為第二幀目標的中心點,并以此畫出目標框(圖13中的OUTPUT)。
  4. 根據(jù)第二幀的目標區(qū)域更新濾波器模版
  5. 重復3-4步

 

MOSSE算法

2012

  • CSK

CSK的作者針對MOSSE做出了一些改進,作者認為循環(huán)移位能模擬當前正樣本的所有的轉(zhuǎn)換版本(除邊界以外),因此采用循環(huán)矩陣進行密集采樣(對比MOSSE的隨機仿射采樣),并通過核函數(shù)將低維線性空間映射到高維空間,提高了相關(guān)濾波器的魯棒性。

循環(huán)矩陣是一種特殊的矩陣,它的一維形式就是由一個n維向量每次向右循環(huán)移動一個元素,直到生成一個n×n的矩陣,具體效果如下圖所示。

循環(huán)矩陣示意圖

2014

  • KCF

CSK的特征輸入是單通道的灰度像素,而KCF利用的是HOG多通道特征,核函數(shù)利用了高斯核函數(shù)。

方向梯度特征效果圖

可以說CSK和KCF的結(jié)合才是完整的核化相關(guān)濾波器的演變趨勢,既有循環(huán)矩陣及傅立葉對角化簡化計算,又有對單通道特種應用的拓展,可以適應更多優(yōu)秀的特征描述。

  • DSST

DSST作者將跟蹤分為兩個部分——位置變化和尺度變化。在跟蹤過程中,作者定義了兩個濾波器分別用于確定新目標的位置和尺度評估,提高了算法的魯棒性。

2015

  • MDNet

MDNet設(shè)計了一個輕量級的小型網(wǎng)絡學習卷積特征表示目標。作者提出了一個多域的網(wǎng)絡框架。

在離線訓練時,特征提取網(wǎng)絡是共享的,同時針對每個視頻序列構(gòu)建一個新的檢測分支進行訓練。這樣特征提取網(wǎng)絡可以學習到通用性更強的與域無關(guān)的特征。

在跟蹤時,保留并固定特征提取網(wǎng)絡,針對跟蹤序列構(gòu)建一個新的分支檢測部分,用第一幀樣本在線訓練檢測部分之后再利用跟蹤結(jié)果生成正負樣本來微調(diào)檢測分支。

此外,MDNet在訓練中負樣本的生成用到了難例挖掘技術(shù),隨著訓練的進行增大樣本的分類難度,從而使得網(wǎng)絡的判別能力越來越強。

如下圖所示,負樣本越來越難分。

難例挖掘

  • SRDCF

SRDCF的作者考慮到若僅使用單純的相關(guān)濾波會導致邊界效應,也就是相關(guān)濾波采用循環(huán)移位采樣導致當目標移位到邊緣時會被分割開,此時得到的樣本中就沒有完整的目標圖像從而失去效果。

邊界效應

于是,作者的思路是既然邊界效應發(fā)生在邊界附近,那就忽略所有移位樣本的邊界部分像素,或者說限制讓邊界附近濾波器系數(shù)接近0,具體做法是加入空間正則化,懲罰邊界區(qū)域的濾波器系數(shù),效果如下圖。

SRDCE空間正則化

  • HCF

HCF的主要貢獻是把相關(guān)濾波中的HOG特征換成了深度特征,它使用的是VGG的3、4、5三個層來提取特征,針對每層CNN訓練一個過濾器,并且按照從深到淺的順序使用相關(guān)濾波,然后利用深層得到的結(jié)果來引導淺層從而減少搜索空間。

HCF算法提取深度特征

上圖是使用卷積可視化得到的,如圖中所示,在conv3中的特征能夠比較清晰的看到目標的輪廓,但是在conv5中已經(jīng)很難看到細節(jié)所在,但是,在conv5當中能夠看到的是,本層特征包含了較多的語義信息,左半部分的高亮區(qū)域就是目標位置的所在的大概區(qū)域范圍,所以在高層特征當中,能夠很容易的找到目標所在的大概區(qū)域范圍,然后逐步使用較低層次的特征對目標進行精確定位。

2016

  • Staple

Staple提出了一種互補的方式??紤]到HOG特征對形變和運動模糊比較敏感,但是對顏色變化能夠達到很好的跟蹤效果,color特征對顏色比較敏感,但是對形變和運動模糊能夠有很好的跟蹤效果,因此作者認為若能將兩者互補就能夠解決跟蹤過程當中遇到的一些主要問題。于是,Staple使用HOG-KCF與color-KCF結(jié)合算法對目標進行跟蹤。

此算法的創(chuàng)新思路簡單直白,但效果很驚艷。

  • TCNN

TCNN使用一個樹形的結(jié)構(gòu)來處理CNN特征。作者利用可靠性來分配預測目標的權(quán)重,采用的更新策略是每10幀刪除最前的節(jié)點,同時創(chuàng)建一個新的CNN節(jié)點,選擇能夠使新節(jié)點的可靠性最高的節(jié)點作為其父節(jié)點。這樣一直保持一個active set,里面是10個最新更新的CNN模型,用這個active set來做跟蹤。但由于要更新網(wǎng)絡結(jié)構(gòu),速度較慢。

TCNN樹形結(jié)構(gòu)更新示例

  • siamFC

SiamFC方法的核心思想很簡單,就是將跟蹤過程規(guī)劃為一個相似性學習問題。即學習一個函數(shù) f(z, x) 來比較樣本圖像 z 和搜索圖像 x 的相似性,如果兩個圖像相似度越高,則得分越高。為了找到在下一幀圖像中目標的位置,可以通過測試所有目標可能出現(xiàn)的位置,將相似度最大的位置作為目標的預測位置。

在深度學習中處理相似度問題最典型的是采用Siamese架構(gòu),SiamFC的網(wǎng)絡結(jié)構(gòu)如下圖:

SiamFC網(wǎng)絡結(jié)構(gòu)

2017

  •  CFNet

CFNet采用孿生網(wǎng)絡的架構(gòu),訓練樣本(這里指用來匹配的模板)和測試樣本(搜索的圖像區(qū)域)通過一個相同的網(wǎng)絡,然后只將訓練樣本做相關(guān)濾波操作,形成一個對變化有魯棒性的模板。為了抑制邊界效應,作者施加了余弦窗并在之后又對訓練樣本進行了裁剪。

2018

  • UPDT

UPDT算法的主要思想是區(qū)別對待深度特征和淺層特征,深層特征能通過數(shù)據(jù)增強來提升效果,同時深層特征主打的是魯棒性而不是精度;相反,淺層特征經(jīng)數(shù)據(jù)增強后反而降低了效果,但同時它能夠很好地保證精度。因此,作者得出了深度模型和淺層模型先分別獨立訓練,最后再融合的方案。

  • SiamRPN

SiamRPN在SiamFC的基礎(chǔ)上利用了Faster RCNN中的RPN,解決了之前深度學習跟蹤算法沒有domain specific(可理解為類間不區(qū)分)以及還需額外的尺度檢測與在線微調(diào)的問題。RPN回歸網(wǎng)絡的引入,一方面提高了精度,另一方面回歸過程代替多尺度檢測,使得速度有所提升。

SiamRPN網(wǎng)絡結(jié)構(gòu)

2019

  • SiamRCNN

SiamRCNN發(fā)現(xiàn)重檢測很容易受到干擾物的影響從而產(chǎn)生模型漂移,從難例挖掘和運動軌跡動態(tài)規(guī)劃兩個角度入手,設(shè)計了一個利用第一幀和前一幀為模板的孿生網(wǎng)絡檢測結(jié)構(gòu),在短時跟蹤評價上效果驚人,在長時跟蹤評價上也有非常顯著的進步。

其中軌跡動態(tài)規(guī)劃算法(TDPA)主要思想是通過重新檢測前一幀中所有的目標候選框,并將這些候選框隨時間分組到短目標軌跡中,同時跟蹤所有潛在的目標,包括干擾目標。然后根據(jù)視頻中所有目標對象和干擾對象的完整歷史軌跡選擇當前最佳對象。

2020

  •  RPT框架

RPT算法框架由目標狀態(tài)估計網(wǎng)絡與在線分類網(wǎng)絡兩部分組成:

目標狀態(tài)估計網(wǎng)絡將跟蹤目標狀態(tài)表示為特征點集,以提升對目標位姿變化、幾何結(jié)構(gòu)變化的建模能力。在視覺目標跟蹤任務中,為了方便真值標注與特征提取,目標狀態(tài)通常用矩形框進行表示。矩形框一方面是對目標區(qū)域的一種粗略表示,包含多余的背景;另一方面不具備對目標位姿變化、幾何結(jié)構(gòu)變化的建模能力,進而限制了回歸精度。因此,將跟蹤目標表示為一系列特征點,通過監(jiān)督學習目標區(qū)域內(nèi)的語義關(guān)鍵點與極值點,實現(xiàn)更精細的目標狀態(tài)估計。

PRT目標狀態(tài)估計網(wǎng)絡

在線分類網(wǎng)絡由輕量的兩層全卷積神經(jīng)網(wǎng)絡構(gòu)成,使得RPT框架具備對抗周邊相似干擾物的強魯棒性。

 RPT在線分類網(wǎng)絡

06 目標跟蹤的研究趨勢

本節(jié)淺析近幾年來目標跟蹤領(lǐng)域各種算法主流的研究趨勢和發(fā)展方向。

a) 信息提取

  • 深度特征

在現(xiàn)實場景中,物體是在三維的運動場中移動的。而視頻或圖像序列都是二維的信息,這其實是一些難題的根本原因之一。一個比較極端的例子就是理發(fā)店門前經(jīng)常會出現(xiàn)的旋轉(zhuǎn)柱,如果單純地從二維角度來看,柱子是向上運動的,可在實際的運動場中柱子是橫向運動的,觀測和實際的運動方向是完全垂直的。

旋轉(zhuǎn)柱效果圖

因此,為了能夠更好地跟蹤目標,我們需要提取盡可能好的特征,此外最好能從視頻或圖像序列中學到更多豐富的信息(尤其是含語義的)。

  • 時域和空間域結(jié)合

由于CNN能夠在學習的過程中能夠產(chǎn)生對樣本中各個區(qū)域有區(qū)分的關(guān)注度,因此可以不考慮邊界效應。對邊界效應的處理主要是在相關(guān)濾波類等需要循環(huán)移位的算法中出現(xiàn)。

事實上,目標跟蹤這一個任務本身就在利用時域信息,因為預測下一幀肯定需要上一幀的信息,然而僅僅利用上一幀的信息往往是不夠的,充分的利用時域信息在正則或者輔助記憶方面都可以取得一定的效果。

b) 元學習

當深度特征興起之后,目標跟蹤中的許多算法都選擇遷移目標分類任務中的一些預訓練模型來提取特征,這種遷移學習其實就包含了元學習的思想。例如MDNet將每個視頻看做一個域,在測試時新建一個域但同時保留了之前訓練時在其他域上學到的經(jīng)驗,既能夠更快更好地在新的視頻序列上學習也避免了過擬合。

孿生網(wǎng)絡實際上也是元學習領(lǐng)域一種比較常用的結(jié)構(gòu),它本身學習了如何去判斷輸入之間的相似度。

c) 防止過擬合

目標跟蹤中由于模版更新或目標形變等因素造成的過擬合問題也是一個比較重要的關(guān)注點,下面是一些比較常見的方法:

  • 采用稀疏更新的方式(隔幾幀更新一次),相當于將利用單幀信息的更新變成了批處理的形式。
  • 每次更新采用最近幾幀的信息而不是只用目前幀的信息,其原理類似上一條。
  • 利用初始幀或者質(zhì)量比較好的幾幀存儲的樣本來進行時域正則。
  • 對不同的情況采用不同的更新或者初始化的策略。
  • 使用掩模去除不可靠的信息。

07 學習目標跟蹤相關(guān)參考資料

a) 入門

  • 相信本篇文章可以幫助大家了解“什么是目標跟蹤”“目標跟蹤要完成一件什么樣的事情”。下面這篇文章更加詳盡地介紹了目標跟蹤任務流程中的各個子問題(參照本文第一節(jié)的流程圖)。https://www.pianshen.com/article/54451671167/
  • 此外想要入門目標跟蹤(同樣適用計算機視覺的其他任務,如目標檢測等),可以從學習OpenCV入手,先掌握基本的圖像處理、提取圖像特征,以有效地去描述目標。推薦一個簡單好上手的OpenCV入門課程資源:https://www.bilibili.com/video/BV1Fo4y1d7JL?p=1

b) 進階

推薦大家深入地學習一種經(jīng)典的目標跟蹤算法,由于具體算法的詳細原理內(nèi)容較多,在此不做贅述,這里推薦幾種經(jīng)典的跟蹤算法學習資料,也可以自行選取一兩種其他經(jīng)典算法進行深入學習:

  • 基于相關(guān)濾波的目標跟蹤經(jīng)典算法:KCF(源碼已收入OpenCV4):https://blog.csdn.net/crazyice521/article/details/53525366
  • 基于孿生網(wǎng)絡的目標跟蹤鼻祖算法:SiamFC(先理解孿生網(wǎng)絡):https://arxiv.org/pdf/1606.09549.pdf
  • 吳毅老師的論文,包含了2012年以前經(jīng)典算法的對比Wu Y, Lim J, Yang M H. Online object tracking: A benchmark [C]// CVPR, 2013.Wu Y, Lim J, Yang M H. Object tracking benchmark [J]. TPAMI, 2015.

c)前沿

     以下資料鏈接可以了解最新的跟蹤算法和跟蹤思路:

  • 首先推薦一個在github上維護的Tracking Benchmark for Correlation Filters,總結(jié)了相關(guān)濾波的目標跟蹤算法并按每篇論文解決的問題進行分類:https://github.com/HEscop/TBCF
  • 下圖是中科院博士王強在github上總結(jié)的跟蹤算法的思維導圖,根據(jù)跟蹤算法發(fā)展進行了梳理,可以看到目標跟蹤算法主要往兩個大方向發(fā)展,分別是CF即相關(guān)濾波和DL即深度學習。同一個鏈接下還包括了各項成果的paper及code。長期更新和維護,值得收藏。

目標跟蹤算法思維導圖

  • VOT歷屆競賽地址,可以了解到每年大賽得獎算法的各項性能評分和原理 :https://www.votchallenge.net/challenges.html
  • 目標跟蹤方向的論文可以關(guān)注計算機視覺的三大頂會 CVPR (Computer Vision and Pattern Recognition)、ICCV (International Conference on Computer Vision) 、ECCV (European Conference on Computer Vision)。

下面總結(jié)了19年20年的頂會論文:

  • CVPR2020(共33篇) :https://bbs.cvmart.net/topics/2733
  • ECCV2020(共26篇):https://bbs.cvmart.net/topics/3097
  • CVPR2019(共19篇)https://bbs.cvmart.net/articles/523
  • ICCV2019(共11篇):https://bbs.cvmart.net/articles/1190
責任編輯:張燕妮 來源: 焉知智能汽車
相關(guān)推薦

2025-01-15 09:06:57

servlet服務器Java

2022-09-29 13:09:38

DataClassPython代碼

2020-04-23 10:48:04

機器人動化技術(shù)

2023-11-06 08:16:19

APM系統(tǒng)運維

2022-11-11 19:09:13

架構(gòu)

2023-05-17 11:33:45

梯度下降機器學習

2022-03-14 08:01:06

LRU算法線程池

2018-10-22 08:14:04

2019-07-04 15:16:52

數(shù)據(jù)挖掘大數(shù)據(jù)算法

2022-09-06 11:21:49

光網(wǎng)絡光纖

2023-11-20 08:18:49

Netty服務器

2023-04-11 08:01:32

Web 開發(fā)源代碼映射

2019-04-19 14:03:52

APISDK接口

2023-10-27 08:15:45

2022-02-24 07:34:10

SSL協(xié)議加密

2023-11-08 08:15:48

服務監(jiān)控Zipkin

2023-03-31 08:16:53

Flutter優(yōu)化內(nèi)存管理

2022-08-20 17:54:37

機器人開發(fā)

2022-02-15 08:38:04

錯誤邏輯異常編程程序

2023-02-02 09:00:00

點贊
收藏

51CTO技術(shù)棧公眾號