自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

谷歌大腦最新操作玩“復(fù)古”:不用卷積注意力,圖像分類接近SOTA

新聞 人工智能
這個(gè)架構(gòu)名為MLP-Mixer,采用兩種不同類型的MLP層,可以看做是一個(gè)特殊的CNN,使用 1×1卷積進(jìn)行通道混合(按位操作),同時(shí)全感受野和參數(shù)共享的的單通道深度卷積進(jìn)行字符混合(跨位操作)。

本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

谷歌大腦的視覺Transformer團(tuán)隊(duì)(ViT),搞了個(gè)復(fù)古操作。

他們不用卷積神經(jīng)網(wǎng)絡(luò)(CNN)、也不用Transformer,僅憑最早的AI視覺任務(wù)采用的多層感知機(jī)(MLP)結(jié)構(gòu),就實(shí)現(xiàn)了接近SOTA的性能,更是在ImageNet圖像分類任務(wù)上取得了87.94%的準(zhǔn)確率。

谷歌大腦最新操作玩“復(fù)古”:不用卷積注意力,圖像分類接近SOTA

這個(gè)架構(gòu)名為MLP-Mixer,采用兩種不同類型的MLP層,可以看做是一個(gè)特殊的CNN,使用 1×1卷積進(jìn)行通道混合(按位操作),同時(shí)全感受野和參數(shù)共享的的單通道深度卷積進(jìn)行字符混合(跨位操作)。

在JFT-300M數(shù)據(jù)集上預(yù)訓(xùn)練、微調(diào)到224分辨率的Mixer-H/14版本取得了86.32%的準(zhǔn)確率,比SOTA模型ViT-H/14僅低0.3%,但運(yùn)行速度是其2.2倍。

論文地址:
https://arxiv.org/abs/2105.01601

項(xiàng)目地址:
https://github.com/google-research/vision_transformer/tree/linen

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2020-09-17 12:40:54

神經(jīng)網(wǎng)絡(luò)CNN機(jī)器學(xué)習(xí)

2024-09-19 10:07:41

2022-02-21 09:25:57

VR研究Nature

2018-08-26 22:25:36

自注意力機(jī)制神經(jīng)網(wǎng)絡(luò)算法

2024-07-04 12:18:21

2025-02-25 09:40:00

模型數(shù)據(jù)AI

2025-04-28 03:45:00

2025-03-06 09:25:00

DeepSeek模型訓(xùn)練

2022-04-23 10:47:49

英國(guó)交通部自動(dòng)駕駛駕駛員

2011-07-07 13:12:58

移動(dòng)設(shè)備端設(shè)計(jì)注意力

2025-02-10 00:00:55

MHAValue向量

2025-02-12 10:17:12

2021-01-11 10:23:22

谷歌神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)

2021-07-22 10:12:00

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)圖形

2023-07-30 15:42:45

圖神經(jīng)網(wǎng)絡(luò)PyTorch

2022-06-16 10:29:33

神經(jīng)網(wǎng)絡(luò)圖像分類算法

2024-02-19 00:12:00

模型數(shù)據(jù)

2022-03-25 11:29:04

視覺算法美團(tuán)

2025-01-13 08:23:07

LLMMHAMLP

2024-10-31 10:00:39

注意力機(jī)制核心組件
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)