自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

谷歌發(fā)布TF新工具:計算速度提升2倍,減少無效參數(shù)

新聞 前端
這是谷歌特意為移動設(shè)備和Web端開發(fā)的一系列新工具,可以在幾乎不影響AI模型推理準(zhǔn)確性的同時,“修剪”模型大小,以提升模型推理速度。

   [[386682]]

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

一頓操作后,需要實時模糊背景的視頻,看起來流暢了不少:

谷歌發(fā)布TF新工具:計算速度提升2倍,減少無效參數(shù)

實時目標(biāo)檢測的延遲也更低了:

這是谷歌特意為移動設(shè)備Web端開發(fā)的一系列新工具,可以在幾乎不影響AI模型推理準(zhǔn)確性的同時,“修剪”模型大小,以提升模型推理速度。

最好的情況下,能將AI模型的推理速度提升2倍,模型大小“縮水”一半。

這是怎么做到的?

“抽掉”部分網(wǎng)絡(luò)權(quán)重

這一過程,利用了AI、機器學(xué)習(xí)模型的稀疏性

谷歌發(fā)布TF新工具:計算速度提升2倍,減少無效參數(shù)

稀疏性,指在神經(jīng)網(wǎng)絡(luò)模型中,可以將部分網(wǎng)絡(luò)的權(quán)重設(shè)置為0,以加快推理速度。

它的實現(xiàn)過程,有點像是玩只抽走積木的疊疊樂游戲。

用戶要在保證模型不會“坍塌”的同時,抽走部分參數(shù)(將參數(shù)設(shè)置為0)。

[[386683]]

這是因為,AI模型在進行推理任務(wù)時,往往涉及大量矩陣乘法運算。

如果能在不影響推理結(jié)果的同時,將矩陣中的部分參數(shù)設(shè)置成0,就能極大地加快矩陣運算速度,縮短推理時間。

谷歌發(fā)布TF新工具:計算速度提升2倍,減少無效參數(shù)

目前,許多移動端的輕量級神經(jīng)網(wǎng)絡(luò)架構(gòu),如MobileNet和EfficientNetLite,主要由深度可分離卷積和1×1卷積組成。

其中1×1卷積耗費的推理時間最多,占總計算量的65%以上。

在MobileNet中,1×1卷積的計算量甚至占模型總推理時間的85%。

谷歌發(fā)布TF新工具:計算速度提升2倍,減少無效參數(shù)

因此,1×1卷積層成為了稀疏化的最優(yōu)選擇。

TensofFlow Lite可用

此前,這種利用稀疏性加速推理的方法,應(yīng)用范圍并不廣泛。

一個原因,是神經(jīng)網(wǎng)絡(luò)本身難以解釋,導(dǎo)致稀疏化的過程也不好解釋,以至于缺乏稀疏化的工具。

谷歌發(fā)布TF新工具:計算速度提升2倍,減少無效參數(shù)

另一個原因,則是相應(yīng)設(shè)備如手機,缺乏對稀疏化操作的支持。

現(xiàn)在,谷歌特意為移動設(shè)備和Web端,發(fā)布了一系列針對TensorFlow Lite、和XNNPACK浮點加速庫的稀疏化新工具。

利用這些稀疏化工具,神經(jīng)網(wǎng)絡(luò)就能變得更高效,用戶也能快速上手。

其中,XNNPACK庫包含了能檢測模型是否稀疏的方法,TF Lite工具包中則包含基于幅度的修剪、或RigL等讓模型“縮水”的方法。

整體稀疏化的過程如下:

  • 首先,從原始模型開始訓(xùn)練,在過程中逐漸將網(wǎng)絡(luò)中的部分權(quán)重設(shè)置為0,即“修剪”模型。
  • 然后,通過適當(dāng)增加訓(xùn)練時間,提升模型準(zhǔn)確度(不會比修剪前的模型差太多)。
  • 最后,獲得的稀疏AI推理模型,可以以壓縮格式有效存儲,比原始模型要更小。

這個工具支持一系列感知算法模型,包括MediaPipe的手部跟蹤模型:

以及Google Meet中的背景替換模型:

谷歌發(fā)布TF新工具:計算速度提升2倍,減少無效參數(shù)

當(dāng)然,除了谷歌自帶的AI模型以外,這些稀疏化工具也可以用在自己設(shè)計的AI模型中。

具體效果如何呢?

推理速度快2倍

下圖是原始模型和稀疏模型的對比。

谷歌發(fā)布TF新工具:計算速度提升2倍,減少無效參數(shù)

其中,藍色和黃色,分別對應(yīng)原始模型的32幀/秒、和16幀/秒的模型大小,紅色和綠色則是稀疏模型對應(yīng)的大小。

從圖中可以看見,經(jīng)過“修剪”的AI模型,無論是“手部跟蹤”、還是“背景替換”,模型大小都降低了接近一半以上。

而且,隨著稀疏程度的提高,推理時間也幾乎呈直線下降趨勢。

谷歌發(fā)布TF新工具:計算速度提升2倍,減少無效參數(shù)

但也要注意,不能一味地稀疏化模型,因為當(dāng)模型的稀疏化程度高于70%的時候,模型的精度就會出現(xiàn)明顯的下降。

谷歌發(fā)布TF新工具:計算速度提升2倍,減少無效參數(shù)

因此,模型的實際稀疏效果,還是會和理論上有所出入。

在實際應(yīng)用上,Google Meet推理時間只降低了30%,但也已經(jīng)非常不錯了。

還在發(fā)愁自己的AI模型太大,在移動設(shè)備中運行效果不好的小伙伴,可以試著將自己的模型“縮縮水”了~

項目地址:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/delegates/xnnpack/README.md#sparse-inference

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2020-09-20 21:46:00

量子芯片網(wǎng)絡(luò)

2018-11-22 14:39:00

工具開源谷歌

2019-06-10 00:45:01

谷歌開源圖像識別

2021-09-24 09:28:34

計算數(shù)據(jù) 技術(shù)

2022-03-07 09:38:51

計算開源阿里巴巴

2023-03-22 13:53:26

芯片英偉達

2025-02-26 10:24:47

2023-03-29 07:22:06

公共預(yù)覽版Microsoft

2015-12-09 14:35:55

量子計算機谷歌

2017-05-11 11:30:43

MySQL查詢速度

2009-12-24 09:30:38

Opera性能測試

2011-10-26 09:06:54

Windows管理工具

2009-03-29 09:47:24

蘋果Iphone移動OS

2024-04-10 08:00:00

PostgresNoSQL

2010-08-13 11:06:52

創(chuàng)新工場CEO李開復(fù)

2020-04-16 16:34:10

戴爾攻擊BIOS

2011-03-06 09:57:34

Android

2018-04-03 12:41:30

UAI-Train計算運維

2023-05-15 20:19:26

谷歌AI
點贊
收藏

51CTO技術(shù)棧公眾號