自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

擊穿黑盒模型!MIT華人博士發(fā)布ExSum,模型解釋新神器

人工智能 新聞
黑盒模型解釋起來讓人頭大,往往只能在論文里放幾個例子來強行解釋一波。最近MIT的一位華人博士提出了一個新框架ExSum,讓模型解釋這件事變得更數(shù)學了!

?人工智能近些年的快速發(fā)展主要歸功于神經(jīng)網(wǎng)絡(luò)模型,但隨著模型越做越大、越來越復雜,研究人員漸漸也無法完全理解模型究竟是如何做出預測的,「黑匣子」也就變得越來越黑。

能否理解黑盒模型的運行機制對于模型部署來說至關(guān)重要,關(guān)乎模型的可靠性和易用性,所以也有研究人員正在開發(fā)模型的可解釋方法。

為了嘗試理解模型,之前大多采用測試樣例的方法來描述和解釋模型的決策過程,比如在情感分析任務中,對電影評論數(shù)據(jù)高亮顯示模型認為正向還是負向的關(guān)鍵詞,也叫「局部解釋」。

但對于復雜一些的任務,人類可能就沒辦法輕易理解了,甚至可能會產(chǎn)生誤解,那這種解釋方法就毫無用處。

最近,麻省理工學院的研究人員提出了一個全新的數(shù)學框架ExSum,可以形式化地量化和評估機器學習模型的可解釋性的可理解度,論文已被NAACL 2022接收。

論文鏈接:https://arxiv.org/pdf/2205.00130.pdf

說得通俗點,就是看你「解釋模型的規(guī)則」適不適用于更多的數(shù)據(jù)。

局部解釋的一大弊端就是沒法判斷規(guī)則是不是可以擴展到其他測試樣例上,比如高亮了「精彩」作為電影評論的正向詞,那是不是意味著「不」之類的否定詞就對測試沒影響了?

使用ExSum,用戶可以用三個指標來查看規(guī)則是否成立:覆蓋率、有效性和清晰度。

覆蓋率衡量規(guī)則在整個數(shù)據(jù)集中的適用范圍;有效性則顯示有多少樣例使得規(guī)則成立;清晰度描述了規(guī)則的精確程度:一個有效的規(guī)則可能也很通用,但對于理解模型來說則沒有用處。

文章的第一作者Yilun Zhou是麻省理工學院電子工程和計算機科學系(EECS)的五年級博士生,導師為Julie Shah教授。目前的研究方向是幫助人類更好地理解那些在世界上做出重要決策的模型,主要問題包括如何確保一個黑盒模型的正確工作?如何對預期的和更重要的非預期的模型行為有一個全面的理解?人類對這種復雜推理過程的理解有什么局限性?

為了回答這些問題,他開發(fā)了可解釋機器學習的模型、算法和評估,并將其應用于不同的領(lǐng)域,包括計算機視覺(CV)、自然語言處理(NLP)和機器人學。

用數(shù)學描述經(jīng)驗

在訓練文本分類模型時,對模型進行解釋通常會怎么做?

先給模型輸入一個句子,然后模型給文本預測一個標簽。如果預測正確,就分析一下句子中每個詞在預測中的重要度。

比如下圖中的例句,在情感分類任務中的標簽為正向,使用SHAP解釋方法可以對文本中的每個詞測量貢獻度,比如「memorable」和「great」的評分更高,在情感分類時預測重要度更高;而停用詞「for」得分只有-0.02,基本就是忽略掉了,對預測結(jié)果沒有影響。

這么一驗證,再加上模型的分類性能特別好,你可能會得出結(jié)論:模型能夠正確地識別所有正向詞、忽視停用詞。

但事實果真如此嗎?

孤證不立,模型在其他數(shù)據(jù)上是否能滿足這個結(jié)論,還是個未知數(shù);并且用人來觀察這種方式也不夠自動化。

ExSum框架的做法就是將這條規(guī)則「數(shù)學化」,在進行模型解釋時,每個單詞的每個特征都稱之為一個基本的解釋單元(fundamental explanation unit, FEU),在這個例子里,用到的特征就是SHAP評分。

然后生成一條規(guī)則,比如句子的情感評分(0.638)比「memorable」的評分更高,然后以0.479的評分作為正向詞的基準,判斷在其他句子上該條規(guī)則的正確率(3.1%)。

這種方法可以自動地測量規(guī)則的覆蓋度、有效性和清晰度,能夠幫助開發(fā)者更深入地理解模型的行為。

上手指南

隨文章一同發(fā)布的還有ExSum框架程序,只需要通過pip install exsum即可開始「模型解釋」之旅。

ExSum主要用于檢查和修改針對文本二分類模型的ExSum規(guī)則,包含Exsum規(guī)則和規(guī)則集合的類定義,基于Flask的服務器,還可以對規(guī)則和規(guī)則集合進行交互式可視化展示。

代碼鏈接:https://github.com/YilunZhou/ExSum

教程鏈接:https://yilunzhou.github.io/exsum/documentation.html

運行ExSum GUI后可以看到程序主要分為5個面板。

面板A顯示規(guī)則的組成結(jié)構(gòu),并非所有的規(guī)則都被選中,比如A表示不使用規(guī)則2和7,但每個規(guī)則最多只能使用一次。

當選擇一條規(guī)則時,將自動計算一個沒有該規(guī)則的反事實(counterfactual, CF)規(guī)則聯(lián)合,以便用戶直觀地了解其邊際貢獻,第二行則顯示了CF規(guī)則集合的結(jié)構(gòu)。

面板B將所有規(guī)則轉(zhuǎn)為按鈕,用戶可以通過單擊規(guī)則來更詳細地檢查規(guī)則,底部是重置和保存按鈕。重置按鈕用來放棄對規(guī)則(面板D)中的參數(shù)值所做的所有更改,保存按鈕則將當前規(guī)則集合的副本保存到某個指定目錄中。

面板C以數(shù)字和圖形形式顯示為完整規(guī)則集合、CF規(guī)則集合和選定規(guī)則計算的度量值。對規(guī)則所做的任何更改都會自動觸發(fā)對這些值的重新計算和更新。

面板D列出所選規(guī)則的參數(shù),可以通過輸入或使用滑塊手動更改。

此外,還可以使用AutoTune工具箱自動調(diào)整參數(shù)。

面板E顯示特定數(shù)據(jù)實例上的規(guī)則和規(guī)則集合,包括三個控制按鈕,分別用來在切換顯示整個規(guī)則集合和僅顯示選定規(guī)則、切換顯示整個句子或僅顯示句子中的一個FEU、重隨機數(shù)據(jù)并顯示新的一批實例。

當預測正確時(使用0.5作為閾值),文本為綠色,否則為紅色。

單詞的下劃線表示它被所選規(guī)則或規(guī)則集合覆蓋,對于覆蓋詞,粗體表示根據(jù)行為函數(shù)是有效的。

將鼠標懸停在每個單詞上會顯示一個工具提示,顯示數(shù)字屬性值和覆蓋該單詞的規(guī)則(如果有)。下圖顯示了一個例子(在這種情況下,規(guī)則19對「嚴重」一詞無效,因為該詞不是粗體字)。

責任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-06-30 13:01:26

2022-06-07 10:25:45

機器學習Shapash

2025-01-26 11:00:00

2021-09-03 16:41:26

模型人工智能深度學習

2022-11-30 16:08:42

2021-11-25 12:40:20

模型人工智能計算

2023-05-17 10:05:56

2024-04-11 07:10:59

大語言模型AI人工智能

2022-02-24 13:36:21

3D模型AI

2024-08-14 14:06:01

2024-08-22 18:58:27

英偉達微軟小語言模型

2015-03-03 10:52:48

TCPIP

2024-01-02 09:30:13

模型AI

2022-10-19 14:17:32

圖像模型

2023-07-31 09:54:12

2023-07-30 15:22:47

2021-07-06 10:37:37

模型人工智能深度學習

2024-09-13 10:14:36

2024-09-13 09:26:17

2023-10-08 13:44:00

數(shù)據(jù)研究
點贊
收藏

51CTO技術(shù)棧公眾號