自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

聊一聊可解釋的反欺詐AI

人工智能 安全
AI-ML驅(qū)動(dòng)決策的算法模型正如一個(gè)“黑盒”,我們只能了解結(jié)構(gòu),卻無(wú)法洞察其運(yùn)行原理,更無(wú)法判斷其給出結(jié)果的可靠性。

近年來(lái),人工智能飛速發(fā)展,并作為強(qiáng)大的創(chuàng)新工具廣泛應(yīng)用于各行各業(yè)的無(wú)數(shù)用例中。然而,巨大的責(zé)任通常需要巨大的能力。多虧了AI和機(jī)器學(xué)習(xí),反欺詐技術(shù)變得愈加精確并且比以往發(fā)展地更加快速。實(shí)時(shí)的評(píng)分技術(shù)可以使商業(yè)領(lǐng)導(dǎo)立即分辨出欺詐行為。然而,AI-ML驅(qū)動(dòng)決策的使用也引起了對(duì)透明度的關(guān)注。并且,當(dāng)ML模型出現(xiàn)在高風(fēng)險(xiǎn)環(huán)境中時(shí),對(duì)可解釋性的需求也就出現(xiàn)了。

隨著由機(jī)器制定的關(guān)鍵決策的數(shù)量不斷增加,可解釋性和可理解性也變得越來(lái)越重要。技術(shù)研究員Tim Miller表示:可理解性是人類能夠理解決策原因的程度。因此,發(fā)展ML模型的可解釋性是至關(guān)重要的,它有助于可信任自動(dòng)化解決方案的制定。

開發(fā)人員、消費(fèi)者以及領(lǐng)導(dǎo)者都應(yīng)該了解防詐騙決策的意義和過(guò)程。但是參數(shù)稍微多一些的ML模型對(duì)大部分人來(lái)說(shuō)是都難以理解的。然而,可解釋AI研究社區(qū)一再聲明:由于可理解性工具的發(fā)展,黑盒模型不再是黑盒。在這些工具的幫助下,用戶能夠理解并更加信任這些用來(lái)做出重要決策的ML模型。

事物的SHAP

SHAP (SHapley Additive exPlanations) 是如今最為常用的模型不可知論解釋工具之一。它從合作博弈中計(jì)算Sharply值,均勻分擔(dān)特征的影響。當(dāng)我們基于表格數(shù)據(jù)并使用集成方法來(lái)打擊欺詐時(shí),SHAP的TreeExplainer算法提供了在多項(xiàng)式時(shí)間里獲取的局部解釋的機(jī)會(huì)。使用這種工具,僅有近似值也是可行的。與基于神經(jīng)網(wǎng)絡(luò)的解釋相比,這是一個(gè)巨大的進(jìn)展。

白盒通常是指計(jì)算欺詐程度分值的規(guī)則引擎。就本質(zhì)而言,黑盒和白盒得出的結(jié)果不同,因?yàn)楹诤惺歉鶕?jù)機(jī)器從數(shù)據(jù)中學(xué)習(xí)的內(nèi)容得出結(jié)果,而白盒是根據(jù)預(yù)定義的規(guī)則來(lái)得出分值。我們可以根據(jù)這些差異來(lái)雙向發(fā)展。例如,根據(jù)黑盒模型發(fā)現(xiàn)的欺詐環(huán)來(lái)調(diào)整規(guī)則。

黑盒測(cè)試與SHAP結(jié)合,可以幫助我們理解該模型的全局行為,并揭示該模型用于檢測(cè)欺詐活動(dòng)的主要特征。同時(shí),也可以揭示該模型中的不良偏差。例如,某個(gè)模型可能會(huì)歧視特定的人口統(tǒng)計(jì)數(shù)據(jù)。它可以通過(guò)全局模型解釋來(lái)檢測(cè)此類情況,從而防止不準(zhǔn)確預(yù)測(cè)的出現(xiàn)。

此外,它還可以幫助我們理解模型做出的單個(gè)預(yù)測(cè)。在ML模型調(diào)試的過(guò)程中,數(shù)據(jù)科學(xué)工作者可以獨(dú)立地觀察每個(gè)預(yù)測(cè),并以此來(lái)解釋它。它的特征貢獻(xiàn)可以幫助我們察覺(jué)該模型正在做什么,我們可以從這些輸入中進(jìn)行進(jìn)一步的開發(fā)。通過(guò)利用SHAP,最終用戶不僅可以獲得模型的基本特征,還可以了解每個(gè)特征(在哪個(gè)方向)是如何影響模型輸出欺詐概率的。

置信系數(shù)

最后,在SHAP的幫助下,通過(guò)獲取對(duì)成功模式的信任,置信可以從客戶那里獲得。一般來(lái)說(shuō),如果我們理解一個(gè)產(chǎn)品是如何運(yùn)行的,那么我們就會(huì)對(duì)它更加有信心。人們不喜歡自己不理解的東西。在解釋工具的幫助下,我們可以查看黑盒,更好地理解和信任它。并且,通過(guò)理解模型,我們還可以對(duì)它進(jìn)行不斷的改進(jìn)。

可解釋的增強(qiáng)器(EBM)是使用SHAP梯度增強(qiáng)ML模型的一個(gè)替代方案。這是InterpretML(微軟的人工智能公司)的旗艦產(chǎn)品,是一個(gè)所謂的玻璃盒子。玻璃盒子這個(gè)名字來(lái)源于這樣一個(gè)事實(shí):由于它的結(jié)構(gòu),它的本質(zhì)是可解釋的。根據(jù)原始文檔,“EBM通常與最先進(jìn)的黑盒模型一樣準(zhǔn)確,同時(shí)還保持完全的可解釋性。雖然EBM的訓(xùn)練速度比其他現(xiàn)代算法慢,但它在預(yù)測(cè)時(shí),卻非常的緊湊和快速。”局部可解釋的模型——模型不可知解釋(LIME)也是一個(gè)可以用來(lái)進(jìn)行黑盒解釋的好工具。然而,它更受非結(jié)構(gòu)化數(shù)據(jù)模型的歡迎。 

通過(guò)利用上述工具以及透明的數(shù)據(jù)點(diǎn),組織可以放心地做出決策。所有的利益相關(guān)者必須知道他們的工具是如何得出最佳結(jié)果的。了解黑盒ML以及與之相結(jié)合的各種技術(shù)可以幫助組織更好地了解它們是如何得出結(jié)果,從而幫助實(shí)現(xiàn)業(yè)務(wù)目標(biāo)的。

點(diǎn)評(píng)

對(duì)于人來(lái)類說(shuō),未知的往往是可怕的,更是不可信任的。AI-ML驅(qū)動(dòng)決策的算法模型正如一個(gè)“黑盒”,我們只能了解結(jié)構(gòu),卻無(wú)法洞察其運(yùn)行原理,更無(wú)法判斷其給出結(jié)果的可靠性。尤其是在防欺詐領(lǐng)域這種高風(fēng)險(xiǎn)環(huán)境中,AI及ML技術(shù)的應(yīng)用變得更加困難。而可解釋性工具的引入,使得“黑盒”逐漸變得透明,很大程度上打消了用戶的懷疑與擔(dān)憂,同時(shí)也為“黑盒”本身的發(fā)展創(chuàng)造了條件。

責(zé)任編輯:趙寧寧 來(lái)源: 數(shù)世咨詢
相關(guān)推薦

2023-07-06 13:56:14

微軟Skype

2020-09-08 06:54:29

Java Gradle語(yǔ)言

2023-09-22 17:36:37

2021-01-28 22:31:33

分組密碼算法

2020-05-22 08:16:07

PONGPONXG-PON

2018-06-07 13:17:12

契約測(cè)試單元測(cè)試API測(cè)試

2021-08-01 09:55:57

Netty時(shí)間輪中間件

2023-09-27 16:39:38

2024-10-28 21:02:36

消息框應(yīng)用程序

2022-06-22 12:54:58

人工智能機(jī)器人元宇宙

2021-12-06 09:43:01

鏈表節(jié)點(diǎn)函數(shù)

2021-03-01 18:37:15

MySQL存儲(chǔ)數(shù)據(jù)

2023-09-20 23:01:03

Twitter算法

2021-07-16 11:48:26

模型 .NET微軟

2021-08-04 09:32:05

Typescript 技巧Partial

2022-08-08 08:25:21

Javajar 文件

2022-11-01 08:46:20

責(zé)任鏈模式對(duì)象

2018-11-29 09:13:47

CPU中斷控制器

2019-02-13 14:15:59

Linux版本Fedora

2021-01-29 08:32:21

數(shù)據(jù)結(jié)構(gòu)數(shù)組
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)