自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

圖像識別更準確!尤洋團隊最新研究:全新自適應計算模型AdaTape

人工智能 新聞
谷歌最新提出的自適應計算模型,能夠提升圖像識別性能。

自適應計算(adaptive computation)是指ML統(tǒng)根據(jù)環(huán)境變化調(diào)整其行為的能力。

傳統(tǒng)神經(jīng)網(wǎng)絡具有固定的功能和計算能力,即用相同數(shù)量的FLOP來處理不同的輸入。

但具有自適應和動態(tài)計算的模型,根據(jù)輸入的復雜性調(diào)節(jié)其專用于處理每個輸入的計算預算。

神經(jīng)網(wǎng)絡中的自適應計算之所以吸引人,有兩個關(guān)鍵原因。

首先,引入自適應的機制提供了一種歸納偏差,可以在解決一些具有挑戰(zhàn)性的任務中發(fā)揮關(guān)鍵作用。

例如,為不同的輸入啟用不同數(shù)量的計算步驟對于解決需要對不同深度的層次結(jié)構(gòu)進行建模的算術(shù)問題至關(guān)重要。

其次,它使從業(yè)者能夠通過動態(tài)計算,提供的更大靈活性來調(diào)整推理成本。

來自谷歌團隊發(fā)表的論文中,介紹了一種全新自適應計算的新模型——AdaTape。

論文地址:https://arxiv.org/pdf/2301.13195.pdf

最新模型是基于Transverter架構(gòu),用動態(tài)tape token和自適應Tape讀取算法來生成輸入序列,可提高圖像識別任務的性能。

AdaTape使用自適應tape讀取機制,來確定根據(jù)輸入的復雜性,添加到每個輸入中的不同數(shù)量的tape token。

AdaTape實現(xiàn)起來非常簡單,在需要時提供了一個有效的knob來提高準確性。

與其他自適應基線相比,AdaTape也更高效,因為它直接將適應性注入輸入序列而不是模型深度。

最后,Adatape在標準任務(如圖像分類)以及算法任務上提供了更好的性能,同時保持良好的質(zhì)量和成本權(quán)衡。

彈性輸入序列的自適應計算

AdaTape使用自適應函數(shù)類型和動態(tài)計算預算。

具體來說,對于分詞后的一批輸入序列,AdaTape使用表示每個輸入的向量來動態(tài)選擇可變大小的tape token序列。

AdaTape使用稱為「tape bank」的token庫,來存儲通過自適應tape讀取機制與模型交互的所有候選tape token。

研究人員稱,創(chuàng)建tape庫的2種不同方法:輸入驅(qū)動庫和可學習庫。

輸入驅(qū)動庫的總體思想,是從輸入中提取一組token庫,同時采用與原始模型分詞器不同的方法,將原始輸入映射到一系列輸入token序列。

這使得動態(tài)、按需訪問從使用不同圖像分辨率獲得的輸入信息。

AdaTape整體架構(gòu)

在某些情況下,由于不同抽象級別的分詞化是不可能的,因此輸入驅(qū)動的tape庫是不可行的。

例如當很難進一步拆分圖Transformer中的每個節(jié)點時。

為了解決這個問題,AdaTape提供了一種更通用的方法,通過使用一組可訓練向量作為tape token來生成tape庫。

這種方法被稱為「可學習庫」,可以被視為嵌入層,其中模型可以根據(jù)輸入示例的復雜性動態(tài)檢索token。

可學習庫使AdaTape能夠生成更靈活的tape庫,使其能夠根據(jù)每個輸入示例的復雜性動態(tài)調(diào)整其計算預算。

例如,更復雜的示例從庫中檢索更多token,這使得模型不僅使用存儲在庫中的知識,而且花費更多的FLOP來處理它,因為輸入現(xiàn)在更大了。

最后,選定的tape token被附加到原始輸入,并饋送到以下Transformer層。

對于每個Transformer層,在所有輸入和tape token上使用相同的多頭注意力。

但是,使用了兩種不同的前饋網(wǎng)絡(FFN):一種用于來自原始輸入的所有token,另一種用于所有tape token。

研究人員觀察到,通過對輸入和tape token使用單獨前饋網(wǎng)絡,質(zhì)量略好一些。

歸納偏差

我們在奇偶校驗上評估AdaTape,這對標準Transformer來說是一項非常具有挑戰(zhàn)性的任務,以研究AdaTape中歸納偏差的影響。

對于奇偶校驗任務,給定序列1、0和-1,模型必須預測序列中1的數(shù)量的均勻性或奇異性。

奇偶校驗是周期性正則語言,但也許令人驚訝的是,這項任務是標準Transformer無法解決的。

對奇偶校驗任務的評估

盡管在短而簡單的序列上進行了評估,但標準Transformer和通用Transformer都無法執(zhí)行奇偶校驗任務,因為它們無法在模型中維護計數(shù)器。

然而,AdaTape的性能優(yōu)于所有基線,因為它在其輸入選擇機制中結(jié)合了輕量級遞歸,提供了歸納偏差,可以隱式維護計數(shù)器,這在標準Transformer中是不可能的。

圖像分類評估

就圖像分類任務,研究人員在ImageNet-1K上從頭開始訓練AdaTape。

下圖顯示了AdaTape和基線方法的準確性,包括A-ViT和通用Transformer ViT(UViT和U2T)與其速度(以每秒每個代碼處理的圖像數(shù)量衡量)。

在質(zhì)量和成本權(quán)衡方面,AdaTape的表現(xiàn),比替代的自適應Transformer基線要好得多。

在效率方面,較大的AdaTape模型(就參數(shù)計數(shù)而言)比較小的基線更快。

通過在ImageNet上從頭開始訓練來評估AdaTape

這樣的結(jié)果與之前的研究發(fā)現(xiàn)一致,即自適應模型深度架構(gòu)不太適合許多加速器,如TPU。

對AdaTape行為研究

除了測試在奇偶校驗任務和ImageNet-1K上的性能,研究人員還評估了AdaTape在JFT-300M驗證集上,使用輸入驅(qū)動庫的token選擇行為。

為了更好地理解模型的行為,將輸入驅(qū)動庫上的token選擇結(jié)果可視化為熱圖,其中較淺的顏色意味著位置被更頻繁地選擇。

熱圖顯示AdaTape更頻繁地選擇中心patch。

這同樣符合先驗知識,因為中心patch通常信息更豐富。

尤其是在自然圖像數(shù)據(jù)集的上下文中,其中主要對象位于圖像中間。

這一結(jié)果凸顯了AdaTape的智能性,因為它可以有效地識別和優(yōu)先考慮更多信息patch,以提高其性能。

可視化AdaTape-B/32(左)和AdaTape-B/16(右)的tape token選擇熱圖

AdaTape的特點是,自適應tape讀取機制產(chǎn)生的彈性序列長度。

這也引入了一種新的感應偏置,使AdaTape有潛力解決,對標準Transformer和現(xiàn)有自適應Transformer都具有挑戰(zhàn)性的任務。

通過對圖像識別基準進行綜合實驗,研究證明,當計算保持不變時,AdaTape優(yōu)于標準和自適應Transformer。

作者介紹

尤洋目前是新加坡國立大學校長青年教授。

2021年4月,入選亞洲福布斯30歲以下精英榜。他曾獲得了清華大學計算機系獲得碩士學位,還獲得了美國加利福尼亞大學伯克利分校計算機系獲得博士學位。

圖片

責任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-02-26 08:25:00

模型訓練

2024-02-29 11:56:10

AI模型

2022-10-20 09:33:35

2025-01-11 23:14:52

2020-09-14 14:10:04

開發(fā)技能代碼

2018-03-20 09:26:39

賽靈思ACAP

2024-03-01 13:31:21

2021-03-24 14:08:28

人工智能AI機器學習

2015-07-28 11:25:59

微軟沈向洋

2019-07-21 22:22:37

圖像識別AI機器視覺

2024-02-26 07:30:00

神經(jīng)網(wǎng)絡AI

2024-06-18 08:16:49

2021-04-09 20:49:44

PythonOCR圖像

2022-10-11 23:35:28

神經(jīng)網(wǎng)絡VGGNetAlexNet

2020-11-20 17:03:11

AI 數(shù)據(jù)人工智能

2022-08-18 15:42:46

AMD

2019-08-09 16:34:24

賽靈思

2023-11-24 09:26:29

Java圖像

2022-10-26 13:36:59

模型計算

2021-07-26 11:44:48

網(wǎng)絡賽靈思計算
點贊
收藏

51CTO技術(shù)棧公眾號