自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

剪掉ImageNet 20%數(shù)據(jù)量,模型性能不下降!Meta斯坦福等提出新方法,用知識蒸餾給數(shù)據(jù)集瘦身

大數(shù)據(jù)
超大數(shù)據(jù)集的效率并不高,本文提出的辦法,其實就是對原本的數(shù)據(jù)集進行優(yōu)化精簡。研究人員表示,過去許多方法都表明,許多訓練示例是高度冗余的,理論上可以把數(shù)據(jù)集“剪”得更小。

這兩天,推特上一個任務懸賞火得一塌糊涂。

一家AI公司提供25萬美金(折合人民幣約167萬元),懸賞什么任務能讓模型越大、性能反而越差。

圖片

評論區(qū)里已經(jīng)討論得熱火朝天了。

圖片

不過這事兒倒也不是單純整活,而是為了進一步探索大模型。

畢竟,這兩年大家越發(fā)意識到,AI模型不能單純比“大”。

一方面,隨著模型的規(guī)模越來越大,訓練付出的成本開始呈現(xiàn)指數(shù)型增長;

圖片

另一方面,模型性能的提升也已經(jīng)逐漸到達瓶頸期,哪怕想要讓誤差再下降1%,都需要更多的數(shù)據(jù)集增量和計算增量。

比如對于Transformer而言,交叉熵損失想要從3.4奈特降低到2.8奈特,就需要原本10倍量的訓練數(shù)據(jù)。

針對這些問題,AI學者們已經(jīng)在從各種方向上找解決路子了。

Meta斯坦福的學者們,最近想到了從數(shù)據(jù)集上切入。

他們提出,對數(shù)據(jù)集進行知識蒸餾,使得數(shù)據(jù)集規(guī)模雖小,但還能保持模型性能不下降。

實驗驗證,在剪掉ImageNet 20%的數(shù)據(jù)量后,ResNets表現(xiàn)和使用原本數(shù)據(jù)時的正確率相差不大。

研究人員表示,這也為AGI實現(xiàn)找出了一條新路子。

圖片

超大數(shù)據(jù)集的效率并不高

本文提出的辦法,其實就是對原本的數(shù)據(jù)集進行優(yōu)化精簡。

研究人員表示,過去許多方法都表明,許多訓練示例是高度冗余的,理論上可以把數(shù)據(jù)集“剪”得更小。

而且最近也有研究提出了一些指標,可以根據(jù)訓練示例的難度或重要性對它們進行排序,并通過保留其中一些難度高的示例,就能完成數(shù)據(jù)修剪。

基于前人的發(fā)現(xiàn)和研究,此次學者們進一步提出了一些可具體操作的方法。

首先,他們提出了一種數(shù)據(jù)分析方法,可以讓模型只學習部分數(shù)據(jù),就能實現(xiàn)同等的性能。

圖片

通過數(shù)據(jù)分析,研究人員初步得出結(jié)論:

一個數(shù)據(jù)集怎樣修剪效果最好?這和它本身的規(guī)模有關(guān)。

初始數(shù)據(jù)量越多,越應該保留難度高的示例;

初始數(shù)據(jù)量越少,則應該保留難度低的示例。

圖片

而在保留困難示例進行數(shù)據(jù)修剪后,模型和數(shù)據(jù)規(guī)模的對應關(guān)系,可以打破冪律分布。

常被提起的二八定律就是基于冪律提出的。

即20%的數(shù)據(jù)會影響80%的結(jié)果。

圖片

同時在此情況下,還能找到一個處于帕累托最優(yōu)的下的極值。

這里所說的帕累托最優(yōu)是指資源分配的一種理想狀態(tài)。

它假設(shè)固定有一群人和可分配的資源,從一種分配狀態(tài)調(diào)整到另一種分配狀態(tài),在沒有使任何一個人變差的前提下,至少使得一個人變得更好。

在本文中,調(diào)整分配狀態(tài)即可理解為,修剪多少比例的數(shù)據(jù)集。

然后,研究人員進行了實驗來驗證這一理論。

圖片

從實驗結(jié)果來看,當數(shù)據(jù)集越大,修剪后的效果就越明顯。

在SVHN、CIFAR-10、ImageNet幾個數(shù)據(jù)集上,ResNet的錯誤率總體和數(shù)據(jù)集修剪規(guī)模呈反比。

在ImageNet上可以看到,數(shù)據(jù)集規(guī)模保留80%的情況下,和原本數(shù)據(jù)集訓練下的錯誤率基本相同。

這一曲線也逼近了帕累托最優(yōu)。

接下來,研究人員聚焦在ImageNet上,對10種不同情況進行了大規(guī)?;鶞蕼y試。

結(jié)果表明,隨機修剪以及一些修剪指標,在ImageNet上的表現(xiàn)并不夠好。

圖片

所以更進一步,研究人員還提出了一種自監(jiān)督方法來修剪數(shù)據(jù)。

也就是知識蒸餾(教師學生模型),這是模型壓縮的一種常見方法。

圖片

結(jié)果顯示,在自監(jiān)督方法下,它在找數(shù)據(jù)集中簡單/困難示例上的表現(xiàn)都還不錯。

圖片

使用自監(jiān)督方法修剪數(shù)據(jù)后,正確率明顯提高(圖C中淺藍色線)。

圖片

還存在一些問題

不過在論文中,研究人員也提到,雖然通過如上方法可以在不犧牲性能的情況下修剪數(shù)據(jù)集,但是有些問題仍舊值得關(guān)注。

比如數(shù)據(jù)集縮小后,想要訓練出同等性能的模型,需要的時間可能會更長。

因此,在進行數(shù)據(jù)集修剪時,應該平衡縮減規(guī)模和訓練增長時間兩方面因素。

與此同時,對數(shù)據(jù)集進行修剪,勢必會喪失一些群體的樣本,由此也可能造成模型在某一個方面出現(xiàn)弊端。

在這方面會容易引起道德倫理方面的問題。

研究團隊

本文作者之一Surya Ganguli,是量子神經(jīng)網(wǎng)絡科學家。

圖片

他現(xiàn)在是斯坦福大學應用物理學教授、谷歌客座研究教授。

此前,他在斯坦福讀本科期間,同時學習了計算機科學、數(shù)學和物理三個專業(yè),之后拿下了電氣工程與計算機科學碩士學位。

論文地址:https://arxiv.org/abs/2206.14486?

責任編輯:未麗燕 來源: 量子位
相關(guān)推薦

2023-07-04 10:11:28

數(shù)據(jù)模型

2025-03-03 09:16:00

Meta模型預測

2025-01-17 10:26:19

模型開發(fā)ChatGPT

2023-09-06 13:34:31

2024-09-29 10:40:00

數(shù)據(jù)模型

2024-11-29 16:35:50

模型訓練

2024-02-21 12:10:00

模型數(shù)據(jù)

2024-01-29 12:49:00

AI模型

2024-11-18 10:15:00

AI模型

2024-10-21 12:40:00

視頻生成模型

2023-05-23 08:00:00

數(shù)據(jù)集ImageNet算法

2023-09-25 10:04:37

模型AI

2022-10-20 15:38:02

谷歌模型

2015-08-21 09:14:40

大數(shù)據(jù)

2022-07-20 16:39:37

AI數(shù)據(jù)

2022-04-20 08:00:00

深度學習數(shù)據(jù)集Hub

2023-12-27 18:12:50

2024-12-30 07:11:00

大型視覺語言模型VLMs人工智能

2020-12-02 10:09:00

機器學習人工智能計算機

2025-02-21 09:35:00

3DAI生成
點贊
收藏

51CTO技術(shù)棧公眾號