自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

在當(dāng)今的人工智能環(huán)境中,什么是可解釋AI?

人工智能
可解釋AI,顧名思義,有助于描述一個(gè)AI模型、其影響和潛在的偏見(jiàn)。其還在描述模型的準(zhǔn)確性、公平性、透明度和人工智能驅(qū)動(dòng)決策過(guò)程的結(jié)果方面發(fā)揮著作用。

隨著人工智能(AI)變得越來(lái)越復(fù)雜并在社會(huì)上得到廣泛采用,一組最關(guān)鍵的流程和方法是可解釋AI,有時(shí)也稱(chēng)為XAI。

可解釋AI可以定義為:

一組幫助人類(lèi)用戶(hù)理解和信任機(jī)器學(xué)習(xí)算法結(jié)果的過(guò)程和方法。

可猜到,這種可解釋性是非常重要的。因?yàn)锳I算法控制了許多領(lǐng)域,這帶來(lái)了偏見(jiàn)、錯(cuò)誤算法和其他問(wèn)題的風(fēng)險(xiǎn)。通過(guò)可解釋性實(shí)現(xiàn)透明度,世界可以真正利用人工智能的力量。

可解釋AI,顧名思義,有助于描述一個(gè)AI模型、其影響和潛在的偏見(jiàn)。其還在描述模型的準(zhǔn)確性、公平性、透明度和人工智能驅(qū)動(dòng)決策過(guò)程的結(jié)果方面發(fā)揮著作用。

現(xiàn)今的AI驅(qū)動(dòng)的組織應(yīng)該始終采用可解釋AI流程,以幫助在生產(chǎn)中建立對(duì)AI模型的信任和信心。在當(dāng)今的人工智能環(huán)境中,可解釋AI也是成為負(fù)責(zé)任的企業(yè)的關(guān)鍵。

由于如今的人工智能系統(tǒng)非常先進(jìn),人類(lèi)通常會(huì)執(zhí)行一個(gè)計(jì)算過(guò)程,以追溯算法是如何得到結(jié)果的。這個(gè)過(guò)程變成了一個(gè)“黑匣子”,意味著其是無(wú)法被理解的。當(dāng)這些無(wú)法解釋的模型直接從數(shù)據(jù)中開(kāi)發(fā)出來(lái)時(shí),沒(méi)有人能理解其中發(fā)生了什么。

通過(guò)可解釋AI來(lái)了解AI系統(tǒng)是如何運(yùn)行的,開(kāi)發(fā)者可以確保系統(tǒng)能夠正常工作。其還可以幫助確保模型符合監(jiān)管標(biāo)準(zhǔn),并為模型提供挑戰(zhàn)或更改的機(jī)會(huì)。

AI和XAI之間的差異

一些關(guān)鍵的差異有助于將“常規(guī)”AI與可解釋AI區(qū)分開(kāi)來(lái),但最重要的是,XAI實(shí)現(xiàn)了特定的技術(shù)和方法,以幫助確保ML過(guò)程中的每個(gè)決策都是可跟蹤和可解釋的。相比之下,常規(guī)AI通常使用ML算法得到結(jié)果,但不可能完全理解算法是如何得到結(jié)果的。在常規(guī)AI的情況下,很難檢查準(zhǔn)確性,導(dǎo)致控制、問(wèn)責(zé)和可審核性的喪失。

可解釋AI的好處

任何希望采用可解釋AI的組織都有很多好處,例如:

  • 更快的結(jié)果:可解釋AI使組織能夠系統(tǒng)地監(jiān)控和管理模型,以?xún)?yōu)化業(yè)務(wù)結(jié)果??梢猿掷m(xù)地評(píng)估和改進(jìn)模型性能,并微調(diào)模型開(kāi)發(fā)。
  • 降低風(fēng)險(xiǎn):通過(guò)采用可解釋的AI流程,可以確保AI模型是可解釋的和透明的??梢怨芾矸ㄒ?guī)、合規(guī)性、風(fēng)險(xiǎn)和其他需求,同時(shí)最大限度地減少手動(dòng)檢查的開(kāi)銷(xiāo)。所有這些也有助于減少意外偏見(jiàn)的風(fēng)險(xiǎn)。
  • 建立信任:可解釋AI有助于在生產(chǎn)AI中建立信任。AI模型可以迅速投入生產(chǎn),可以保證可解釋性,并且可以簡(jiǎn)化模型評(píng)估過(guò)程,并使其更加透明。

可解釋AI技術(shù)

有一些XAI技術(shù)是所有組織都應(yīng)該考慮的,有三種主要方法:預(yù)測(cè)準(zhǔn)確、可追溯性和決策理解。

  • 第一種方法是預(yù)測(cè)的準(zhǔn)確性,是在日常操作中成功使用人工智能的關(guān)鍵??梢赃M(jìn)行模擬,并將XAI輸出與訓(xùn)練數(shù)據(jù)集中的結(jié)果進(jìn)行比較,這有助于確定預(yù)測(cè)的準(zhǔn)確性。實(shí)現(xiàn)這一點(diǎn)的一種比較流行的技術(shù)被稱(chēng)為本地可解釋模型-無(wú)關(guān)解釋(LIME),這是一種通過(guò)機(jī)器學(xué)習(xí)算法解釋分類(lèi)器預(yù)測(cè)的技術(shù)。
  • 第二種方法是可追溯性,其通過(guò)限制決策的制定方式,以及為機(jī)器學(xué)習(xí)規(guī)則和特征建立更狹窄的范圍來(lái)實(shí)現(xiàn)。最常見(jiàn)的可追溯性技術(shù)之一是DeepLIFT,即深度學(xué)習(xí)重要特征。DeepLIFT將每個(gè)神經(jīng)元的激活與其參考神經(jīng)元進(jìn)行比較,同時(shí)演示每個(gè)激活神經(jīng)元之間的可追溯鏈接。其還顯示了彼此之間的依賴(lài)關(guān)系。
  • 第三種方法是決策理解,與前兩種方法不同,其是以人為中心的。決策理解包括教育組織,特別是與AI合作的團(tuán)隊(duì),使他們能夠理解AI如何以及為什么做出決策。這種方法對(duì)于在系統(tǒng)中建立信任至關(guān)重要。

可解釋AI原則

為了更好地理解XAI及其原則,隸屬于美國(guó)商務(wù)部的美國(guó)國(guó)家標(biāo)準(zhǔn)研究院(NIST)提供了可解釋AI的四項(xiàng)原則的定義:

  • AI系統(tǒng)應(yīng)該為每個(gè)輸出提供證據(jù)、支持或推理。
  • AI系統(tǒng)應(yīng)該給出用戶(hù)能夠理解的解釋。
  • 解釋?xiě)?yīng)該準(zhǔn)確地反映系統(tǒng)用于達(dá)到其輸出的過(guò)程。
  • AI系統(tǒng)應(yīng)該只在其設(shè)計(jì)的條件下運(yùn)行,當(dāng)其對(duì)結(jié)果缺乏足夠的信心時(shí),不應(yīng)該提供輸出。

這些原則可以進(jìn)一步組織為:

  • 有意義:為了實(shí)現(xiàn)有意義的原則,用戶(hù)應(yīng)該理解所提供的解釋。這也意味著,在不同類(lèi)型的用戶(hù)使用AI算法的情況下,可能會(huì)有多種解釋。例如,在自動(dòng)駕駛汽車(chē)的情況下,一種解釋可能是這樣的……“人工智能把路上的塑料袋歸類(lèi)為石頭,因此采取行動(dòng)避免撞到它。”雖然這個(gè)例子適用于驅(qū)動(dòng)程序,但對(duì)于希望糾正該問(wèn)題的AI開(kāi)發(fā)人員來(lái)說(shuō)并不是很有用。在這種情況下,開(kāi)發(fā)人員必須理解為什么會(huì)出現(xiàn)錯(cuò)誤分類(lèi)。
  • 解釋準(zhǔn)確度:與輸出準(zhǔn)確度不同,解釋準(zhǔn)確度涉及AI算法準(zhǔn)確解釋其是如何達(dá)到輸出的。例如,如果貸款批準(zhǔn)算法根據(jù)申請(qǐng)的收入來(lái)解釋決定,而實(shí)際上其是基于申請(qǐng)人的居住地,那么這個(gè)解釋將是不準(zhǔn)確的。
  • 知識(shí)限制:AI的知識(shí)限制可以通過(guò)兩種方式達(dá)到,其涉及到系統(tǒng)專(zhuān)業(yè)知識(shí)之外的輸入。例如,如果構(gòu)建一個(gè)系統(tǒng)來(lái)對(duì)鳥(niǎo)類(lèi)種類(lèi)進(jìn)行分類(lèi),給予其一張“蘋(píng)果”圖片,其應(yīng)該能夠解釋輸入不是一只鳥(niǎo)。如果給系統(tǒng)一張模糊的圖片,其應(yīng)該能夠報(bào)告其無(wú)法識(shí)別圖像中的鳥(niǎo),或者其識(shí)別具有非常低的置信度。

數(shù)據(jù)在可解釋AI中的作用

可解釋AI最重要的組成部分之一是數(shù)據(jù)。

根據(jù)Google的說(shuō)法,關(guān)于數(shù)據(jù)和可解釋AI,“一個(gè)AI系統(tǒng)最好通過(guò)底層的訓(xùn)練數(shù)據(jù)和訓(xùn)練過(guò)程,以及產(chǎn)生的AI模型來(lái)理解。”這種理解依賴(lài)于將經(jīng)過(guò)訓(xùn)練的AI模型映射到用于訓(xùn)練其精確數(shù)據(jù)集的能力,以及密切檢查數(shù)據(jù)的能力。

為了增強(qiáng)模型的可解釋性,重要的是要注意訓(xùn)練數(shù)據(jù)。團(tuán)隊(duì)?wèi)?yīng)該確定用于訓(xùn)練算法的數(shù)據(jù)的來(lái)源、獲取數(shù)據(jù)的合法性和道德規(guī)范、數(shù)據(jù)中的任何潛在偏見(jiàn),以及可以采取哪些措施來(lái)減輕任何偏見(jiàn)。

數(shù)據(jù)和XAI的另一個(gè)關(guān)鍵方面是,應(yīng)該排除與系統(tǒng)無(wú)關(guān)的數(shù)據(jù)。為了實(shí)現(xiàn)這一點(diǎn),不相關(guān)的數(shù)據(jù)必須不包含在訓(xùn)練集或輸入數(shù)據(jù)中。

Google建議了一套實(shí)現(xiàn)可解釋性和問(wèn)責(zé)制的做法:

  • 計(jì)劃選擇以追求可解釋性
  • 將可解釋性視為用戶(hù)體驗(yàn)的核心部分
  • 設(shè)計(jì)可解釋的模型
  • 選擇指標(biāo)以反映最終目標(biāo)和最終任務(wù)
  • 了解訓(xùn)練過(guò)的模型
  • 與模型用戶(hù)溝通解釋
  • 進(jìn)行大量測(cè)試,以確保AI系統(tǒng)按照預(yù)期工作

通過(guò)遵循這些推薦的做法,組織可以確保實(shí)現(xiàn)可解釋AI。這對(duì)于當(dāng)今環(huán)境中任何AI驅(qū)動(dòng)的組織來(lái)說(shuō)都是關(guān)鍵。

責(zé)任編輯:姜華 來(lái)源: 千家網(wǎng)
相關(guān)推薦

2023-09-04 14:09:13

2019-06-11 16:06:10

人工智能AI自動(dòng)駕駛

2023-09-20 11:42:44

人工智能AI

2021-12-02 10:18:12

計(jì)算智能人工智能機(jī)器學(xué)習(xí)

2024-05-28 08:00:00

人工智能機(jī)器學(xué)習(xí)

2020-11-11 12:15:31

AI人工智能可解釋性

2018-05-23 09:20:12

人工智能機(jī)器學(xué)習(xí)技術(shù)

2022-09-08 10:32:24

AI人工智能

2018-05-28 11:41:39

AR

2021-01-27 11:56:45

AIops人工智能AI

2022-07-22 18:47:30

AIOmniverse

2020-04-22 13:46:50

人工智能AI

2021-09-16 09:09:03

“可解釋的”人工智能XAI人工智能

2023-12-05 14:46:58

人工智能

2020-12-18 13:22:33

人工智能算法

2023-02-07 10:28:39

2022-06-27 10:36:43

工業(yè)4.0人工智能

2024-10-31 08:00:00

云原生人工智能機(jī)器學(xué)習(xí)

2023-12-15 16:37:05

人工智能智能建筑

2022-04-08 10:09:40

人工智能神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)