自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

是否有可能讓人工智能變得更加透明?

人工智能
人工智能工作的透明度可能會讓那些將該技術(shù)融入日常運(yùn)營的組織感到頭疼。那么,該如何做才能消除對可解釋人工智能需求的擔(dān)憂呢?

為了使人工智能在道德上更加合理和實(shí)用,增強(qiáng)深度神經(jīng)網(wǎng)絡(luò)的可解釋性是至關(guān)重要的。

人工智能工作的透明度可能會讓那些將該技術(shù)融入日常運(yùn)營的組織感到頭疼。那么,該如何做才能消除對可解釋人工智能需求的擔(dān)憂呢?

人工智能在任何行業(yè)的深遠(yuǎn)優(yōu)勢都是眾所周知的。我們意識到這項(xiàng)技術(shù)是如何幫助世界各地成千上萬的企業(yè)加快他其運(yùn)營速度,并使之更有想象力地使用員工。此外,人工智能的長期成本和數(shù)據(jù)安全效益也被一些技術(shù)專欄作家和博主無數(shù)地記錄下來。不過,人工智能確實(shí)存在相當(dāng)多的問題。其中一個問題是,這項(xiàng)技術(shù)的決策有時令人懷疑。但更重要的是,更大的問題是,當(dāng)人工智能驅(qū)動的系統(tǒng)出現(xiàn)令人尷尬或?yàn)?zāi)難性的錯誤時,都會略微缺乏可解釋性。

人類每天都會犯錯誤。然而,我們清楚地知道錯誤是如何產(chǎn)生的??梢圆扇∫幌盗忻鞔_的糾正措施,以避免今后重蹈覆轍。然而,AI的一些錯誤是無法解釋的,因?yàn)閿?shù)據(jù)專家不知道算法是如何在操作過程中得出特定結(jié)論的。因此,對于計劃將該技術(shù)應(yīng)用到日常工作中的組織和已經(jīng)將其納入其中的組織來說,可解釋的人工智能應(yīng)該是首要優(yōu)先考慮的問題。

讓人工智能變得可解釋的原因

關(guān)于人工智能的一個常見謬誤是,它完全不會犯錯。神經(jīng)網(wǎng)絡(luò),尤其是在其早期階段,可能會出錯。同時,這些網(wǎng)絡(luò)以非透明的方式執(zhí)行其命令。如前所述,人工智能模型到達(dá)特定結(jié)論的路徑在操作過程中的任何時刻都不明確。因此,即使是經(jīng)驗(yàn)豐富的數(shù)據(jù)專家,也幾乎不可能解釋這樣的錯誤。

人工智能的透明度問題在醫(yī)療保健行業(yè)尤為突出。試想一下這個例子:一家醫(yī)院有一個神經(jīng)網(wǎng)絡(luò)或一個黑盒子AI模型,用于診斷病人的腦部疾病。該智能系統(tǒng)經(jīng)過訓(xùn)練,可以從過去的記錄和患者現(xiàn)有的醫(yī)療文件中查找數(shù)據(jù)模式。使用預(yù)測分析,如果模型預(yù)測對象在未來容易患上與大腦相關(guān)的疾病,那么預(yù)測背后的原因通常不是百分之百清楚。對于私人和公共機(jī)構(gòu)來說,以下是讓人工智能工作更加透明的4個主要原因:

1、問責(zé)

如前所述,利益相關(guān)者需要知道AI模型決策過程背后的內(nèi)部運(yùn)作和推理邏輯,尤其是對于意外的建議和決定。一個可解釋的人工智能系統(tǒng)可以確保算法在未來做出公平和道德的建議和決定。這可以提高組織內(nèi)部人工智能神經(jīng)網(wǎng)絡(luò)的合規(guī)性和信任度。

2、更大的控制權(quán)

可解釋的人工智能通常可以防止工作操作中發(fā)生系統(tǒng)錯誤。關(guān)于人工智能模型現(xiàn)有弱點(diǎn)的更多知識可用于消除它們。因此,組織可以更好地控制AI系統(tǒng)提供的輸出。

3、改進(jìn)

眾所周知,人工智能模型和系統(tǒng)需要不時地進(jìn)行持續(xù)改進(jìn)??山忉尩娜斯ぶ悄芩惴▽⒃诙ㄆ诘南到y(tǒng)更新過程中變得更加智能。

4、新發(fā)現(xiàn)

新的信息線索將使人類能夠發(fā)現(xiàn)當(dāng)前時代重大問題的解決方案,如治療HIV AIDS的藥物或療法、處理注意力缺陷障礙的方法。更重要的是,這些發(fā)現(xiàn)將有確鑿的證據(jù)和普遍核查的理由作為支持。

在人工智能驅(qū)動的系統(tǒng)中,透明度可以以人類可以理解的自然語言的分析語句的形式顯示,突出顯示用于制定輸出決策的數(shù)據(jù)的可視化、顯示支持給定決策的點(diǎn)的案例,或突出顯示系統(tǒng)拒絕其他決策的原因的語句。

近年來,可解釋人工智能領(lǐng)域得到了發(fā)展和擴(kuò)展。最重要的是,如果這種趨勢在未來繼續(xù)下去,那么企業(yè)將能夠使用可解釋的人工智能來提高其產(chǎn)出,同時了解每個由人工智能支持的關(guān)鍵決策背后的基本原理。

雖然這些是人工智能需要更加透明的原因,但仍有一些障礙阻止了同樣的事情發(fā)生。其中一些障礙包括:

人工智能責(zé)任悖論

眾所周知,可解釋的人工智能可以提高人工智能系統(tǒng)的公平性、信任度和合法性等方面。然而,一些組織可能不太熱衷于增加其智能系統(tǒng)的責(zé)任感,因?yàn)榭山忉尩娜斯ぶ悄芸赡軙硪幌盗袉栴}。其中一些問題是:

竊取AI模型運(yùn)行的重要細(xì)節(jié)。

由于對系統(tǒng)漏洞的了解增加,外部實(shí)體的網(wǎng)絡(luò)攻擊威脅。

除此之外,許多人認(rèn)為,在人工智能系統(tǒng)中揭露和披露機(jī)密決策數(shù)據(jù)會使組織容易受到訴訟或監(jiān)管行動的影響。

為了不受這種“透明度悖論”的影響,企業(yè)必須考慮與可解釋人工智能相關(guān)的風(fēng)險與其明顯的好處。企業(yè)必須有效地管理這些風(fēng)險,同時確保由可解釋的人工智能系統(tǒng)生成的信息不會被淡化。

此外,企業(yè)必須明白兩件事:首先,讓人工智能透明化的相關(guān)成本不應(yīng)阻止其整合此類系統(tǒng)。企業(yè)必須制定風(fēng)險管理計劃,以適應(yīng)可解釋的模型,使其提供的關(guān)鍵信息保持機(jī)密。其次,企業(yè)必須改進(jìn)其網(wǎng)絡(luò)安全框架,以檢測和消除可能導(dǎo)致數(shù)據(jù)泄露的漏洞和網(wǎng)絡(luò)威脅。

人工智能的黑匣子問題

深度學(xué)習(xí)是人工智能不可或缺的一部分。深度學(xué)習(xí)模型和神經(jīng)網(wǎng)絡(luò)通常以無監(jiān)督的方式進(jìn)行訓(xùn)練。深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)是人工智能的關(guān)鍵組成部分,涉及圖像識別和處理、高級語音識別、自然語言處理和系統(tǒng)翻譯。不幸的是,雖然與常規(guī)機(jī)器學(xué)習(xí)模型相比,這種AI組件可以處理更復(fù)雜的任務(wù),但深度學(xué)習(xí)也會在日常操作和任務(wù)中引入黑匣子問題。

正如所知,神經(jīng)網(wǎng)絡(luò)可以復(fù)制人腦的工作。人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)是模仿真實(shí)的神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)是由幾層相互連接的節(jié)點(diǎn)和其他“隱藏”層創(chuàng)建的。雖然這些神經(jīng)節(jié)點(diǎn)執(zhí)行基本的邏輯和數(shù)學(xué)運(yùn)算來得出結(jié)論,但也足夠智能和直觀,可以處理歷史數(shù)據(jù)并從中生成結(jié)果。真正復(fù)雜的操作涉及多個神經(jīng)層和數(shù)十億個數(shù)學(xué)變量。因此,從這些系統(tǒng)生成的輸出幾乎沒有機(jī)會得到組織中的AI專家的全面驗(yàn)證和確認(rèn)。

Deloitte和Google等組織正在致力于創(chuàng)建工具和數(shù)字應(yīng)用程序,這些工具和應(yīng)用程序可以沖破黑匣子,揭示用于做出關(guān)鍵人工智能決策的數(shù)據(jù),以提高智能系統(tǒng)的透明度。

為了讓人工智能更負(fù)責(zé)任,組織必須重新設(shè)想其現(xiàn)有的人工智能治理策略。以下是改善治理可以減少基于透明度的人工智能問題的一些關(guān)鍵領(lǐng)域。

系統(tǒng)設(shè)計

在初始階段,組織可以在構(gòu)建AI系統(tǒng)和訓(xùn)練神經(jīng)網(wǎng)絡(luò)時優(yōu)先考慮信任和透明度。密切關(guān)注人工智能服務(wù)提供商和供應(yīng)商如何設(shè)計人工智能網(wǎng)絡(luò),可以提醒組織中的關(guān)鍵決策者有關(guān)AI模型的能力和準(zhǔn)確性的早期問題。通過這種方式,在系統(tǒng)設(shè)計階段有一個實(shí)際操作的方法可以揭示一些AI基于透明度的問題,供組織觀察。

合規(guī)

隨著世界各地的人工智能法規(guī)在人工智能責(zé)任方面變得越來越嚴(yán)格,組織可以從使其AI模型和系統(tǒng)符合這些規(guī)范和標(biāo)準(zhǔn)中真正受益。組織必須推動其人工智能供應(yīng)商創(chuàng)建可解釋的人工智能系統(tǒng)。為了消除人工智能算法中的偏見,企業(yè)可以接觸基于云的服務(wù)提供商,而不是聘請昂貴的數(shù)據(jù)專家和團(tuán)隊(duì)。組織必須通過明確指示云服務(wù)提供商在其工作場所安裝和實(shí)施AI系統(tǒng)期間勾選所有與合規(guī)相關(guān)的方框,來減輕合規(guī)負(fù)擔(dān)。除了這些要點(diǎn)之外,組織還可以在其AI治理計劃中包括隱私和數(shù)據(jù)安全等方面的要點(diǎn)。

自世紀(jì)之交以來,我們?nèi)〉昧艘恍┳盍钊苏痼@的技術(shù)進(jìn)步,其中包括人工智能和深度學(xué)習(xí)。幸運(yùn)的是,盡管100%可解釋的人工智能還不存在,但人工智能驅(qū)動的透明系統(tǒng)的概念并不是一個無法實(shí)現(xiàn)的夢想。這取決于實(shí)施這些系統(tǒng)的組織如何改善其人工智能治理,并為實(shí)現(xiàn)這一目標(biāo)承擔(dān)風(fēng)險。

責(zé)任編輯:姜華 來源: 千家網(wǎng)
相關(guān)推薦

2022-06-13 15:28:42

人工智能機(jī)器學(xué)習(xí)數(shù)據(jù)

2022-09-08 10:32:24

AI人工智能

2023-03-15 16:02:27

2024-01-11 14:42:20

人工智能機(jī)器學(xué)習(xí)算法

2022-09-07 11:34:49

人工智能智能建筑

2018-04-02 16:10:28

人工智能機(jī)器人情感智能

2023-08-10 08:49:03

2024-04-12 11:35:17

人工智能機(jī)器人

2021-01-13 18:47:11

人工智能AI超級人工智能

2022-07-04 15:29:59

人工智能機(jī)器計算機(jī)

2019-11-06 09:44:55

人工智能數(shù)據(jù)德勤

2022-07-29 11:39:33

人工智能AI

2019-03-22 14:13:26

人工智能數(shù)字化高管

2019-11-04 09:24:27

人工智能技術(shù)數(shù)據(jù)

2019-07-09 06:05:36

人工智能AI

2019-10-30 15:00:14

人工智能AI機(jī)器學(xué)習(xí)

2023-08-29 15:03:05

2018-01-11 10:54:45

人工智能納米科技復(fù)活術(shù)

2024-12-23 05:00:00

AI人工智能

2021-01-14 22:13:03

人工智能教育互聯(lián)網(wǎng)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號