自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Micro-YOLO:探索目標(biāo)檢測壓縮模型的有效方法

人工智能 新聞
深度學(xué)習(xí)模型在目標(biāo)檢測的性能上取得了重大突破。然而,在傳統(tǒng)模型中,例如Faster R-CNN和YOLO,由于計(jì)算資源有限和功率預(yù)算緊張,這些網(wǎng)絡(luò)的規(guī)模使其難以部署在嵌入式移動(dòng)設(shè)備上。

圖片

論文地址:https://www.scitepress.org/Papers/2021/102344/102344.pdf

一、前言

深度學(xué)習(xí)模型在目標(biāo)檢測的性能上取得了重大突破。然而,在傳統(tǒng)模型中,例如Faster R-CNN和YOLO,由于計(jì)算資源有限和功率預(yù)算緊張,這些網(wǎng)絡(luò)的規(guī)模使其難以部署在嵌入式移動(dòng)設(shè)備上。

圖片

深度學(xué)習(xí)領(lǐng)域的加速發(fā)展極大地促進(jìn)了目標(biāo)檢測的發(fā)展,其在人臉檢測、自動(dòng)駕駛、機(jī)器人視覺和視頻監(jiān)控等方面的廣泛應(yīng)用。隨著目標(biāo)檢測的蓬勃發(fā)展,近年來提出了幾種深度卷積神經(jīng)網(wǎng)絡(luò)模型,例如R-CNN、SSD和YOLO等。然而,隨著網(wǎng)絡(luò)變得越來越復(fù)雜,這些模型的規(guī)模不斷增加,這使得在現(xiàn)實(shí)生活中將這些模型部署到嵌入式設(shè)備上變得越來越困難。因此,開發(fā)一種高效快速的物體檢測模型以在不影響目標(biāo)檢測質(zhì)量的情況下減小參數(shù)大小至關(guān)重要。

二、背景

隨著目標(biāo)檢測網(wǎng)絡(luò)系列不斷變得更加復(fù)雜,減少權(quán)重參數(shù)和計(jì)算成本變得很重要。模型壓縮方法分為低秩分解、知識(shí)蒸餾、剪枝和量化,其中剪枝已被證明是通過去除冗余參數(shù)來降低網(wǎng)絡(luò)復(fù)雜度的有效方法(A survey of model compression and acceleration for deep neural networks)。

為了解決目標(biāo)檢測網(wǎng)絡(luò)問題,有幾種最先進(jìn)的工作技術(shù)可以減少YOLO架構(gòu)中的參數(shù)數(shù)量。(YOLO-LITE: a real-time object detection algorithm optimized for non-GPU computers) 開發(fā)了YOLO-Lite網(wǎng)絡(luò),其中從YOLOv2-tiny中刪除了批量歸一化層以加速目標(biāo)檢測。該網(wǎng)絡(luò)在PASCAL VOC 2007和COCO數(shù)據(jù)集上分別實(shí)現(xiàn)了33.81%和12.26%的mAP。(Yolo nano: a highly compact you only look once convolutional neural network for object detection) 創(chuàng)建了一個(gè)高度緊湊的網(wǎng)絡(luò)YOLO-nano,它是一個(gè)基于YOLO網(wǎng)絡(luò)的8位量化模型,并在PASCAL VOC 2007數(shù)據(jù)集上進(jìn)行了優(yōu)化。該網(wǎng)絡(luò)在PASCAL VOC 2007數(shù)據(jù)集上實(shí)現(xiàn)了3.18M模型大小和69.1%mAP。

三、概要

因此,研究者就提出了一種新的基于輕量級(jí)CNN的目標(biāo)檢測模型,即基于YOLOv3-Tiny的Micro-YOLO,它在保持檢測性能的同時(shí)顯著減少了參數(shù)數(shù)量和計(jì)算成本。研究者建議將YOLOv3-tiny網(wǎng)絡(luò)中的卷積層替換為深度分布偏移卷積(DSConvhttps://arxiv.org/abs/1901.01928v1)和帶有squeeze和excitation塊的移動(dòng)反向瓶頸卷積 (MBConv:主要源自于EfficientNet),并設(shè)計(jì)漸進(jìn)式通道級(jí)剪枝算法以最小化數(shù)量參數(shù)并最大化檢測性能。因此,與原始YOLOv3-tiny網(wǎng)絡(luò)相比,所提出的Micro-YOLO網(wǎng)絡(luò)將參數(shù)數(shù)量減少了3.46倍,乘法累加操作(MAC)減少了2.55倍,同時(shí)在COCO數(shù)據(jù)集上評(píng)估的mAP略微減少了0.7%。

四、新框架介紹

圖片

Micro-YOLO

為了減小網(wǎng)絡(luò)的大小,研究者探索了可選擇的輕量級(jí)卷積層來替代YOLO網(wǎng)絡(luò)中的卷積層Conv。MobileNet網(wǎng)絡(luò)采用兩個(gè)輕量級(jí)卷積層(a)DSConv和(b)MBConv。

圖片

如上圖(a) 所示,DSConv執(zhí)行兩種類型的卷積:(i) 深度卷積和 (ii) 逐點(diǎn)卷積,這可以顯著降低網(wǎng)絡(luò)的模型大小和計(jì)算成本。上圖(b) 所示,MBConv的結(jié)構(gòu)是一個(gè)1×1的channel expansion卷積,然后是深度卷積和一個(gè)1×1的channel reduction層。它利用squeeze和excitation塊,這是一個(gè)分支,由squeeze階段的全局平均池化操作和excitation階段的兩個(gè)小FC層組成在深度卷積和通道之間還原層。由于輸出通道的數(shù)量不等于輸入通道的數(shù)量,研究者在MBConv中移除了殘差連接,MBConv層在輸入和輸出處提供緊湊的表示,同時(shí)在內(nèi)部將輸入擴(kuò)展到更高維的特征空間以增加非線性變換的表達(dá)能力。因此,與DSconv層相比,MBconv層提供了更好的壓縮網(wǎng)絡(luò),而不會(huì)降低檢測精度。

這些層之間的計(jì)算成本,即Conv層(Cs)、DSConv層(Cds)和MBConv層(Cmb)可以分別用以下公式表示:

圖片

其中k表示內(nèi)核大小,Cin表示輸入通道數(shù),Cout表示輸出通道數(shù),W和H表示特征圖的寬度和高度,α和β分別表示MBConv中的擴(kuò)展因子和縮減因子。

Progressive Channel Pruning

在確定新提出的Micro-YOLO網(wǎng)絡(luò)的架構(gòu)后,研究者可以通過使用剪枝技術(shù)進(jìn)一步減少權(quán)重參數(shù)。在提出的工作中,研究者采用了粗粒度剪枝,因?yàn)镈SConv和MBConv層主要由1×1內(nèi)核大小組成,這為細(xì)粒度剪枝留下了最小的空間。(Rethinking the value of network pruning) 表明修剪后的架構(gòu)本身,而不是一組繼承的“重要”權(quán)重,對(duì)最終模型的效率更重要,這表明在某些情況下修剪可能是有用的一種架構(gòu)搜索范式。因此,研究者提出了一種漸進(jìn)式剪枝方法來在修改后的網(wǎng)絡(luò)中搜索“更薄”的架構(gòu)。具體偽代碼流程如下:

圖片

五、實(shí)驗(yàn)

圖片

新提出的框架圖

不同卷積類型和相同內(nèi)核大小的不同輸入通道所需的參數(shù)數(shù)量

圖片

不同卷積類型的參數(shù)量

圖片

內(nèi)核大小探索結(jié)果。不同的條形表示內(nèi)核大小的不同組合。為簡單起見,僅以紅色顯示最佳內(nèi)核大小組合,如下圖:

圖片

最后看下檢測效果:

圖片

責(zé)任編輯:張燕妮 來源: 計(jì)算機(jī)視覺研究院
相關(guān)推薦

2025-02-18 08:00:00

C++YOLO目標(biāo)檢測

2025-01-02 10:30:00

無人機(jī)目標(biāo)檢測AI

2024-10-09 17:02:34

2025-01-14 08:30:00

YOLO目標(biāo)檢測YOLOv8

2024-08-20 09:30:00

2025-01-22 11:10:34

2024-11-29 16:10:31

2020-11-24 17:25:19

模型人工智能深度學(xué)習(xí)

2024-06-21 10:40:00

計(jì)算機(jī)視覺

2023-10-07 08:12:05

DAMO-YOLO算法

2023-04-26 08:24:46

DAMO-YOLO算法

2023-11-13 22:17:54

YOLO-NAS目標(biāo)檢測

2024-07-03 10:46:10

2024-06-19 09:54:58

2024-06-25 09:31:02

2024-07-11 12:30:00

2024-07-30 12:30:00

2024-11-27 16:06:12

2021-10-08 09:46:42

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)人工智能

2024-10-15 10:47:12

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)