自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

NeurIPS 2019:谷歌提出改進機器學習分布外異常檢測新方法

新聞 機器學習
谷歌在 NeurIPS 2019 論文中提出并發(fā)布了針對基因組序列 OOD 檢測的現(xiàn)實基準數據集,進而提出一種基于似然比的解決方案,可顯著提高 OOD 檢測的準確性。

本文轉自雷鋒網,如需轉載請至雷鋒網官網申請授權。

對于機器學習而言,區(qū)分異常數據或有顯著差異數據至關重要。谷歌在 NeurIPS 2019 論文中提出并發(fā)布了針對基因組序列 OOD 檢測的現(xiàn)實基準數據集,進而提出一種基于似然比的解決方案,可顯著提高 OOD 檢測的準確性。AI 科技評論將谷歌對該方法的官方解讀編譯如下。

深度學習科學家要成功部署機器學習系統(tǒng),需要系統(tǒng)能夠區(qū)分出異常數據或與訓練中使用的數據有顯著差異的數據。

由于深度神經網絡分類器可能會將以高置信度將分布外(ODD)的輸入分類到分布內的類別中,因此區(qū)分異常數據或有顯著差異數據是十分重要的。當我們利用這些預測為現(xiàn)實決策提供依據時,異常數據檢測將尤為重要。

例如,將機器學習模型應用于基于基因組序列的細菌檢測,就是一項具有挑戰(zhàn)性的現(xiàn)實應用。細菌檢測對于敗血癥等傳染病的診斷和治療,以及食源性病原體的鑒定都非常關鍵。

近些年來,隨著新細菌種類不斷被發(fā)現(xiàn),雖然基于已知分類訓練的神經網絡分類器通過交叉驗證達到了很高的測量準確性,但部署模型仍具有高的挑戰(zhàn)性,因為現(xiàn)實數據在不斷進化發(fā)展,并且將不可避免地包含以往訓練數據中從未出現(xiàn)過的基因組(OOD 輸入)。  

圖1   近些年來,隨著新的細菌種類逐漸地被發(fā)現(xiàn)。將已知的分類數據輸入基于已知分類數據訓練的分類器能夠達到很高的準確性,這是因為輸入的分類數據是已知的,但它可能將已知分類數據中混合了未知分類數據(如:ODD 數據)的輸入進行錯誤的分類,并且具有很高的置信度。

在 NeurIPS 2019 發(fā)表的論文《分布外檢測的似然比》(Likelihood Ratios for Out-of-Distribution Detection)中,谷歌受到上述新細菌種類檢測這類現(xiàn)實問題的啟發(fā),提出并發(fā)布了針對基因組序列 OOD 檢測的現(xiàn)實基準數據集。

  • 論文地址:https://arxiv.org/abs/1906.02845

  • 實現(xiàn)代碼 GitHub 地址:https://github.com/google-research/google-research/tree/master/genomics_ood

他們利用基于基因組序列的生成模型測試了 OOD 檢測的現(xiàn)有方法,發(fā)現(xiàn)似然值——即輸入來自使用分布不均數據進行估算的分布數據的模型概率——通常是錯誤的。在最近的圖像深度生成模型研究工作中,他們也觀察到了這種現(xiàn)象,并通過統(tǒng)計背景影響來解釋這種現(xiàn)象,進而提出一種基于似然比的解決方案,可以顯著地提高 OOD 檢測的準確性。

一、為什么密度模型無法應用于 OOD 檢測?

為了模擬實際問題并系統(tǒng)地評估不同的方法,他們建立了一個新的細菌數據集,使用的數據來自美國國家生物技術信息中心(NCBI )對外開放的原核生物目錄基因組序列數據。

為了模擬測序數據,他們將基因組片段化為當前測序技術通常使用的 250 個短序列長度的堿基對。然后,其將分布內和分布外的數據按發(fā)現(xiàn)日期進行分離,以便截止時間之前被發(fā)現(xiàn)的細菌種類被定義在分布內,在之后發(fā)現(xiàn)的被定義為分布外(OOD) 。

然后,他們基于分布內的基因組序列訓練深度生成模型,通過繪制似然值曲線,檢驗模型辨別輸入的分布內和分布外數據的能力。 OOD 序列似然值的直方圖與分布內序列似然值高度重合,則表明生成模型無法區(qū)分在兩個種類之間進行的 OOD 檢測結果。

在圖像深度生成模型的早期研究中(相關閱讀參考:https://arxiv.org/abs/1810.09136)也得到了類似的結論。例如,利用 Fashion-MNIST 數據集(由衣服和鞋類的圖像組成)訓練 PixelCNN ++ 模型,比來自 MNIST 數據集(包括數字0-9的圖像)的 OOD 圖像分配了更高的似然值。

圖2   左:分布內和分布外(OOD)基因組序列的似然值直方圖。 似然值未能分辨出分布內和OOD基因組序列。 右:Fashion-MNIST 數據集訓練模型、MNIST 數據集估計的似然值直方圖。 模型在OOD(MNIST)圖像上比在分布內圖像分配了更高的似然值。

在研究這種失敗模型時,他們觀察到背景統(tǒng)計可能影響了似然值的計算。為了更直觀地理解該現(xiàn)象,假設輸入由兩個部分組成:(1)以背景統(tǒng)計為特征的背景成分,(2)以指定于分布內數據專用的模式為特征的語義成分。

例如,可以將 MNIST 圖像建模為背景加語義。當人類解讀圖像時,可以輕松地忽略背景信息而主要關注語義信息,例如下圖中的“ /”標記。但是當為圖像中的所有像素計算似然值時,計算結果中同時包括了語義像素和背景像素。雖然他們只需使用語義的似然值進行決策,但原始的似然值結果中可能大多數都是背景成分。

圖3   左上:Fashion-MNIST 的示例圖像。 左下:MNIST 的示例圖像。 右:MNIST 圖像中的背景和語義成分。

二、OOD 檢測的似然比

他們提出了一種去除背景影響并專注于語義成分的似然比方法。

首先,受遺傳突變的啟發(fā),他們利用擾動輸入方法訓練背景模型,并通過隨機選擇輸入值的位置,將其替換為另一個具有相等概率的值。為了成像,他們從從256個可能的像素值中隨機選擇輸入值;針對DNA 序列,他們從四個可能的核苷酸(A,T,C或G)中選出輸入值。此過程中,適量的擾動會破壞數據的語義結構,導致只能捕獲到背景。

接著,他們計算完整模型與背景模型之間的似然比,去掉了背景成分,這樣就只保留了語義的似然值。似然比是背景對比得分,即它抓住了語義與背景對比的意義。

為了定性評估似然值與似然比之間的差異,他們繪制了在 Fashion-MNIST 數據集和 MNIST 數據集中每個像素的似然值和似然比值,創(chuàng)建了與圖像相同的尺寸的熱圖。

這使他們可以分別直觀地看到哪些像素對于這兩項值的貢獻最大。從對數似然熱圖中可以看到,對于似然值而言,背景像素比語義像素的貢獻更多。

事后看來這并不足為奇,這是由于背景像素主要由一連串零組成,因此很容易被模型學習。 

MNIST 和 Fashion-MNIST 熱圖之間的比較則說明了為什么 MNIST 返回更高的似然值——僅僅是因為它包含了更多的背景像素!相反,似然比的結果更多地集中在語義像素上。         

這種似然比方法修正了背景影響。他們基于 Fashion-MNIST 訓練 PixelCNN ++ 模型,然后在 MNIST 圖像數據集進行 OOD 檢測,實驗結果得到了顯著改善,AUROC 評分從 0.089 提高至 0.994 。 

當他們將似然比方法應用于基因組基準數據集這一極具挑戰(zhàn)的問題時,對比其它 12 種基線方法,該方法表現(xiàn)出了最佳性能。

不過他們也表示,盡管該似然比方法在基因組數據集上達到了最先進的性能,但離將模型部署到實際應用中的高準確性要求仍存在一定距離。 他們鼓勵研究人員努力去解決這一重要問題,并改善當前的最新技術。

 

責任編輯:張燕妮 來源: 雷鋒網
相關推薦

2022-10-28 15:16:52

檢測數據

2021-02-18 14:55:06

FuchsiaAndroidLinux

2025-02-25 10:04:10

2023-12-27 18:12:50

2017-06-10 16:19:22

人工智能智能體強化學習

2023-10-05 06:05:54

谷歌時間訓練

2021-11-26 18:37:39

技術人工智能計算機

2015-07-20 11:49:56

Wi-Fi

2021-09-27 10:12:42

欺騙防御rMTD網絡攻擊

2020-05-14 14:21:50

谷歌AI數據

2023-04-27 13:06:46

AI手機模型

2025-01-10 14:00:00

2020-11-03 10:25:39

AI 機器學習人工智能

2025-01-23 10:08:00

虛擬數字AI

2022-12-08 13:00:10

AI性別偏見

2022-05-26 10:57:51

機器人人工智能

2010-04-01 09:30:57

2015-08-21 09:14:40

大數據

2011-07-15 10:48:20

英特爾谷歌數據中心

2023-08-16 15:25:43

點贊
收藏

51CTO技術棧公眾號