研究人員正確理解人工智能決策的三種方法
理解人工智能決策對(duì)研究人員、決策者和廣大人民來(lái)說(shuō)非常重要。幸運(yùn)的是,有一些方法可以確保我們了解更多。前沿人工智能公司和學(xué)術(shù)屆使用的深度學(xué)習(xí)模型已經(jīng)變得如此復(fù)雜,以至于即使是構(gòu)建模型的研究人員也難以理解正在做出的決策。
這一點(diǎn)在某錦標(biāo)賽上得到了最明顯的體現(xiàn)。在這場(chǎng)比賽中,數(shù)據(jù)科學(xué)家和職業(yè)圍棋選手經(jīng)常被人工智能在比賽中的決策所迷惑,因?yàn)樗龀隽朔钦降挠螒?,而這并不被認(rèn)為是最強(qiáng)的一步。
為了更好地理解他們構(gòu)建的模型,人工智能研究人員開(kāi)發(fā)了三種主要的解釋方法。這些是局部解釋方法,只解釋一個(gè)具體的決定,而不是整個(gè)模型的決定,考慮到規(guī)模,這可能具有挑戰(zhàn)性。
研究人員正確理解人工智能決策的三種方法
特征歸因
通過(guò)特征歸因,人工智能模型將識(shí)別輸入的哪些部分對(duì)特定決策是重要的。對(duì)于X射線,研究人員可以看到熱圖或模型認(rèn)為對(duì)其決策最重要的單個(gè)像素。
使用這種特征歸因解釋?zhuān)梢詸z查是否存在虛假相關(guān)性。例如,它會(huì)顯示水印中的像素是否被突出顯示,或者實(shí)際腫瘤中的像素是否被突出顯示。
反事實(shí)解釋
當(dāng)做出決定時(shí),我們可能會(huì)感到困惑,不知道為什么人工智能會(huì)做出這樣或那樣的決定。由于人工智能被部署在高風(fēng)險(xiǎn)的環(huán)境中,如監(jiān)獄、保險(xiǎn)或抵押貸款,了解人工智能拒絕因素或上訴的原因應(yīng)該有助于他們?cè)谙麓紊暾?qǐng)時(shí)獲得批準(zhǔn)。
反事實(shí)解釋方法的好處是,它確切地告訴你需要如何更改輸入來(lái)翻轉(zhuǎn)決策,這可能具有實(shí)際用途。對(duì)于那些申請(qǐng)抵押貸款卻沒(méi)有得到的人來(lái)說(shuō),這個(gè)解釋會(huì)告訴他們需要做些什么來(lái)達(dá)到他們想要的結(jié)果。
樣本重要性
樣本重要性解釋需要訪問(wèn)模型背后的基礎(chǔ)數(shù)據(jù)。如果研究人員注意到他們認(rèn)為是錯(cuò)誤的,他們可以運(yùn)行一個(gè)樣本重要性解釋?zhuān)圆榭慈斯ぶ悄苁欠褫斎肓怂鼰o(wú)法計(jì)算的數(shù)據(jù),從而導(dǎo)致判斷錯(cuò)誤。?