自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

對(duì)抗「概念飄逸」難題!谷歌發(fā)布全新時(shí)間感知框架:圖像識(shí)別準(zhǔn)確率提升15%

人工智能 新聞
告別數(shù)據(jù)健忘癥!機(jī)器學(xué)習(xí)新方法實(shí)現(xiàn)「時(shí)空穿越」,助力模型適應(yīng)易變世界。

在機(jī)器學(xué)習(xí)領(lǐng)域,概念漂移(concept drift)問(wèn)題長(zhǎng)期困擾著研究者,即數(shù)據(jù)分布隨時(shí)間發(fā)生變化,使得模型難以持續(xù)有效。

一個(gè)顯著的例子是CLEAR非穩(wěn)態(tài)學(xué)習(xí)基準(zhǔn)的圖像展示,它揭示了物體視覺(jué)特征在十年間發(fā)生的顯著變化。

這種現(xiàn)象被稱(chēng)為「緩慢的概念漂移」,它對(duì)物體分類(lèi)模型提出了嚴(yán)峻的挑戰(zhàn)。當(dāng)物體的外觀或?qū)傩噪S著時(shí)間的推移而改變時(shí),如何確保模型能夠適應(yīng)這種變化并持續(xù)準(zhǔn)確地進(jìn)行分類(lèi),成為了研究者關(guān)注的焦點(diǎn)。

近日,針對(duì)這一挑戰(zhàn),Google AI的研究人員提出了一種優(yōu)化驅(qū)動(dòng)的方法MUSCATEL(Multi-Scale Temporal Learning)  ,顯著提升了模型在大型、動(dòng)態(tài)數(shù)據(jù)集中的表現(xiàn)。該工作發(fā)表于AAAI2024。

圖片

論文地址:https://arxiv.org/abs/2212.05908

目前,針對(duì)概率漂移的主流方法是在線學(xué)習(xí)和持續(xù)學(xué)習(xí)(online and continue learning)。

這些方法的核心思想是,通過(guò)不斷更新模型以適應(yīng)最新數(shù)據(jù),保持模型的時(shí)效性。然而,這種做法存在兩個(gè)核心難題。

首先,它們往往只關(guān)注最新數(shù)據(jù),導(dǎo)致過(guò)去數(shù)據(jù)中蘊(yùn)含的有價(jià)值信息被忽略。其次,這些方法假設(shè)所有數(shù)據(jù)實(shí)例的貢獻(xiàn)隨時(shí)間均勻衰減,這與現(xiàn)實(shí)世界的實(shí)際情況不符。

MUSCATEL方法能有效解決這些問(wèn)題,它訓(xùn)練實(shí)例的重要性分配分?jǐn)?shù),優(yōu)化模型在未來(lái)實(shí)例中的表現(xiàn)。

為此,研究人員引入了一個(gè)輔助模型,結(jié)合實(shí)例及其年齡生成分?jǐn)?shù)。輔助模型與主模型協(xié)同學(xué)習(xí),解決了兩個(gè)核心難題。

該方法在實(shí)際應(yīng)用中表現(xiàn)優(yōu)異,在一項(xiàng)涵蓋3900萬(wàn)張照片、持續(xù)9年的大型真實(shí)數(shù)據(jù)集實(shí)驗(yàn)中,相較于其他穩(wěn)態(tài)學(xué)習(xí)的基線方法,準(zhǔn)確率提升了15%。

同時(shí)在兩個(gè)非穩(wěn)態(tài)學(xué)習(xí)數(shù)據(jù)集及持續(xù)學(xué)習(xí)環(huán)境中,也展現(xiàn)出優(yōu)于SOTA方法的效果。

概念漂移對(duì)有監(jiān)督學(xué)習(xí)的挑戰(zhàn)

為了研究概念漂移對(duì)有監(jiān)督學(xué)習(xí)的挑戰(zhàn),研究人員在照片分類(lèi)任務(wù)中比較了離線訓(xùn)練(offline training)和持續(xù)訓(xùn)練(continue training)兩種方法,使用約3,900萬(wàn)張10年間的社交媒體照片。

如下圖所示,離線訓(xùn)練模型雖然初始性能高,但隨時(shí)間推移準(zhǔn)確性下降,因?yàn)?zāi)難遺忘(catastrophic forgetting)導(dǎo)致對(duì)早期數(shù)據(jù)理解減少。

相反,持續(xù)訓(xùn)練模型雖初始性能較低,但對(duì)舊數(shù)據(jù)依賴(lài)較低,測(cè)試期間退化更快。

這表明數(shù)據(jù)隨時(shí)間演變,兩模型的適用性降低。概念漂移對(duì)有監(jiān)督學(xué)習(xí)構(gòu)成挑戰(zhàn),需持續(xù)更新模型以適應(yīng)數(shù)據(jù)變化。

圖片

MUSCATEL

MUSCATEL是一種創(chuàng)新的方法,旨在解決緩慢概念漂移這一難題。它通過(guò)巧妙結(jié)合離線學(xué)習(xí)與持續(xù)學(xué)習(xí)的優(yōu)勢(shì),旨在減少模型在未來(lái)的性能衰減。

在龐大的訓(xùn)練數(shù)據(jù)面前,MUSCATEL展現(xiàn)了其獨(dú)特的魅力。它不僅僅依賴(lài)傳統(tǒng)的離線學(xué)習(xí),更在此基礎(chǔ)上審慎地調(diào)控和優(yōu)化過(guò)去數(shù)據(jù)的影響,為模型未來(lái)的表現(xiàn)打下堅(jiān)實(shí)基礎(chǔ)。

為了進(jìn)一步提升主模型在新數(shù)據(jù)上的性能,MUSCATEL引入了一個(gè)輔助模型。

根據(jù)下圖中的優(yōu)化目標(biāo),訓(xùn)練輔助模型根據(jù)每個(gè)數(shù)據(jù)點(diǎn)的內(nèi)容和年齡為其分配權(quán)重。這一設(shè)計(jì)使得模型能夠更好地適應(yīng)未來(lái)數(shù)據(jù)的變化,保持持續(xù)的學(xué)習(xí)能力。

圖片

為了使輔助模型與主模型協(xié)同進(jìn)化,MUSCATEL還采用了元學(xué)習(xí)(meta-learning)的策略。

這一策略的關(guān)鍵在于將樣本實(shí)例與年齡的貢獻(xiàn)進(jìn)行有效分離,并通過(guò)結(jié)合多種固定衰變時(shí)間尺度來(lái)設(shè)定權(quán)重,如下圖所示。

圖片

此外,MUSCATEL還學(xué)習(xí)將每個(gè)實(shí)例“分配”到最適合的時(shí)間尺度上,以實(shí)現(xiàn)更精確的學(xué)習(xí)。

實(shí)例權(quán)重評(píng)分

如下圖所示,在CLEAR物體識(shí)別挑戰(zhàn)中,學(xué)習(xí)的輔助模型成功調(diào)整了物體的權(quán)重:新外觀的物體權(quán)重增加,舊外觀的物體權(quán)重減少。

通過(guò)基于梯度的特征重要性評(píng)估,可以發(fā)現(xiàn)輔助模型聚焦于圖像中的主體,而非背景或與實(shí)例年齡無(wú)關(guān)的特征,從而證明了其有效性。

圖片

大規(guī)模照片分類(lèi)任務(wù)取得顯著突破

在YFCC100M數(shù)據(jù)集上研究了大規(guī)模照片分類(lèi)任務(wù)(PCAT),利用前五年的數(shù)據(jù)作為訓(xùn)練集,后五年的數(shù)據(jù)作為測(cè)試集。

相較于無(wú)加權(quán)基線以及其他魯棒學(xué)習(xí)技術(shù),MUSCATEL方法展現(xiàn)出了明顯的優(yōu)勢(shì)。

值得注意的是,MUSCATEL方法有意識(shí)地調(diào)整了對(duì)遙遠(yuǎn)過(guò)去數(shù)據(jù)的準(zhǔn)確性,以換取測(cè)試期間性能的顯著提升。這一策略不僅優(yōu)化了模型對(duì)于未來(lái)數(shù)據(jù)的適應(yīng)能力,同時(shí)還在測(cè)試期間表現(xiàn)出較低的退化程度。

跨數(shù)據(jù)集驗(yàn)證廣泛使用性

非穩(wěn)態(tài)學(xué)習(xí)挑戰(zhàn)的數(shù)據(jù)集涵蓋了多種數(shù)據(jù)來(lái)源和模式,包括照片、衛(wèi)星圖像、社交媒體文本、醫(yī)療記錄、傳感器讀數(shù)和表格數(shù)據(jù),數(shù)據(jù)規(guī)模也從10k到3900萬(wàn)實(shí)例不等。值得注意的是,每個(gè)數(shù)據(jù)集之前的最優(yōu)方法可能各有千秋。然而,如下圖所示,在數(shù)據(jù)與方法均存在多樣性的背景下,MUSCATEL方法均展現(xiàn)出了顯著的增益效果。這一結(jié)果充分證明了MUSCATEL的廣泛適用性。

拓展持續(xù)學(xué)習(xí)算法,應(yīng)對(duì)大規(guī)模數(shù)據(jù)處理挑戰(zhàn)

當(dāng)面對(duì)堆積如山的大規(guī)模數(shù)據(jù)時(shí),傳統(tǒng)的離線學(xué)習(xí)方法可能會(huì)感到力不從心。

考慮到這個(gè)問(wèn)題,研究團(tuán)隊(duì)巧妙地調(diào)整了一種受持續(xù)學(xué)習(xí)啟發(fā)的方法,讓它輕松適應(yīng)大規(guī)模數(shù)據(jù)的處理。

這個(gè)方法很簡(jiǎn)單,就是在每一批數(shù)據(jù)上加上一個(gè)時(shí)間權(quán)重,然后順序地更新模型。

雖然這樣做還是有一些小限制,比如模型更新只能基于最新的數(shù)據(jù),但效果卻出奇地好!

在下圖的照片分類(lèi)的基準(zhǔn)測(cè)試中,這個(gè)方法表現(xiàn)得比傳統(tǒng)的持續(xù)學(xué)習(xí)算法和其他各種算法都要出色。

而且,由于它的思路與許多現(xiàn)有的方法都很搭,預(yù)計(jì)與其他方法結(jié)合后,效果會(huì)更加驚艷!

總的來(lái)說(shuō),研究團(tuán)隊(duì)成功將離線與持續(xù)學(xué)習(xí)相結(jié)合,破解了長(zhǎng)期困擾業(yè)界的數(shù)據(jù)漂移問(wèn)題。

這一創(chuàng)新策略不僅顯著緩解了模型的「災(zāi)難遺忘」現(xiàn)象,還為大規(guī)模數(shù)據(jù)持續(xù)學(xué)習(xí)的未來(lái)發(fā)展開(kāi)辟了新的道路,為整個(gè)機(jī)器學(xué)習(xí)領(lǐng)域注入了新的活力。

責(zé)任編輯:張燕妮 來(lái)源: 新智元
相關(guān)推薦

2019-07-21 22:22:37

圖像識(shí)別AI機(jī)器視覺(jué)

2020-09-14 14:10:04

開(kāi)發(fā)技能代碼

2021-10-11 17:27:50

框架計(jì)算機(jī)開(kāi)發(fā)

2022-09-25 17:07:27

訓(xùn)練圖像

2024-11-21 10:21:06

2018-11-14 10:01:30

谷歌開(kāi)源機(jī)器學(xué)習(xí)

2023-03-03 18:31:23

網(wǎng)絡(luò)承運(yùn)商路由

2023-12-12 13:51:00

AI訓(xùn)練

2023-08-22 14:39:00

模型訓(xùn)練

2020-10-18 12:27:35

人工智能人臉識(shí)別技術(shù)

2023-12-01 10:20:00

谷歌技術(shù)

2022-10-20 09:33:35

2023-08-23 12:59:35

2019-06-10 00:45:01

谷歌開(kāi)源圖像識(shí)別

2017-07-20 17:25:42

互聯(lián)網(wǎng)

2024-08-02 13:14:51

2019-01-03 09:04:04

谷歌系統(tǒng)機(jī)器

2022-03-30 14:55:54

微步在線TDP

2014-01-14 17:43:37

NEC圖像識(shí)別

2022-04-13 10:31:04

微軟Jigsaw大型語(yǔ)言模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)