自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

事關(guān)人類生存?為什么要探尋AI系統(tǒng)的可解釋性?

人工智能 深度學(xué)習(xí)
這可能是你第一次聽說“可解釋人工智能”一詞,但你一定很快就能理解它:可解釋人工智能(XAI)是指構(gòu)建人工智能應(yīng)用程序的技術(shù)和方法,人們可以由此理解這些系統(tǒng)做出特定決策的“原因”。

 本文轉(zhuǎn)載自公眾號“讀芯術(shù)”(ID:AI_Discovery)

[[378246]]

這可能是你第一次聽說“可解釋人工智能”一詞,但你一定很快就能理解它:可解釋人工智能(XAI)是指構(gòu)建人工智能應(yīng)用程序的技術(shù)和方法,人們可以由此理解這些系統(tǒng)做出特定決策的“原因”。

換句話說,如果我們能從一個人工智能系統(tǒng)得到關(guān)于其內(nèi)部邏輯的解釋,那么這個系統(tǒng)就被認(rèn)為是一個XAI系統(tǒng)。可解釋性是人工智能界開始流行的一個新屬性,我們將在下文討論其在近幾年出現(xiàn)的緣由。

首先,讓我們深入探究這一問題的技術(shù)根源。

人工智能促進(jìn)我們的生活

科技的進(jìn)步必然使我們能夠更方便地享受更好的服務(wù)??萍际巧钪胁豢扇鄙俚囊徊糠郑铱隙ɡ笥诒?,無論你喜歡科技與否,它對我們生活的影響只會與日俱增。

計算機(jī)、互聯(lián)網(wǎng)和移動設(shè)備的發(fā)明使生活更加便捷高效。繼計算機(jī)和互聯(lián)網(wǎng)之后,人工智能已經(jīng)成為生活新的增強(qiáng)劑。從50年代和60年代數(shù)學(xué)領(lǐng)域的努力嘗試到90年代的專家系統(tǒng),我們才取得了今天的成就。

我們可以在汽車上使用自動駕駛儀,使用谷歌翻譯與外國人交流,使用無數(shù)的應(yīng)用程序來潤色我們的照片,使用智能推薦算法找到最好的餐廳。人工智能對生活的影響不斷增強(qiáng),現(xiàn)在已經(jīng)成為生活中不可或缺的、毋庸置疑的助力。

另一方面,人工智能系統(tǒng)已經(jīng)變得如此復(fù)雜,普通用戶幾乎不可能理解它如何運作。我敢說只有不足1%的谷歌翻譯用戶知道它是如何運行的,但是我們?nèi)匀恍湃芜@個系統(tǒng),并且廣泛使用。

我們應(yīng)該了解這一系統(tǒng)是如何工作的,或者至少,應(yīng)該能夠在必要的時候獲取它的相關(guān)信息。

過于注重準(zhǔn)確性

數(shù)學(xué)家和統(tǒng)計學(xué)家們研究傳統(tǒng)的機(jī)器學(xué)習(xí)算法已有數(shù)百年歷史,如線性回歸、決策樹和貝葉斯網(wǎng)絡(luò)。這些算法都非常直觀,其發(fā)展先于計算機(jī)的發(fā)明。當(dāng)你依據(jù)其中一種傳統(tǒng)算法進(jìn)行決策時,很容易生成解釋。

然而,它們只在一定程度上達(dá)到了準(zhǔn)確度。因此,傳統(tǒng)算法的可解釋度很高,但也算不上很成功。

后來,麥卡洛克-皮茨(McCulloch-Pitts)神經(jīng)元發(fā)明后,發(fā)生了翻天覆地的變化。這一發(fā)展促使了深度學(xué)習(xí)領(lǐng)域的創(chuàng)立。深度學(xué)習(xí)是人工智能的一個分支領(lǐng)域,主要研究利用人工神經(jīng)網(wǎng)絡(luò)來復(fù)制大腦中神經(jīng)元細(xì)胞的工作機(jī)制。

由于運算能力的提高以及開源深度學(xué)習(xí)框架的優(yōu)化,我們逐漸能夠構(gòu)建高精確度性能的復(fù)雜神經(jīng)網(wǎng)絡(luò)。人工智能研究人員們開始競爭,以盡可能達(dá)到最高精確度水平。而這種競爭無疑幫助我們構(gòu)建了偉大的人工智能產(chǎn)品,但同時付出的代價是:低解釋性。

神經(jīng)網(wǎng)絡(luò)非常復(fù)雜且難以理解。它們可以用數(shù)十億個參數(shù)來構(gòu)建。例如,Open AI的革命性NLP模型,GPT-3,就擁有超過1750億個機(jī)器學(xué)習(xí)參數(shù);從這樣一個復(fù)雜的模型中推導(dǎo)出任何一個推理都極具挑戰(zhàn)。

 

事關(guān)人類生存?為什么要探尋AI系統(tǒng)的可解釋性?

 

機(jī)器學(xué)習(xí)算法運行的精準(zhǔn)度VS.可解釋性

如你所見,一個人工智能開發(fā)人員依靠傳統(tǒng)算法而非深度學(xué)習(xí)模型的損失良多。所以,我們看到越來越多的精確模型與日俱增,而其可解釋性卻越來越低。但是,我們需要可解釋性更甚于以往。

越來越多的人工智能系統(tǒng)被應(yīng)用于某些敏感領(lǐng)域

還記得以前人們在戰(zhàn)爭中使用真刀真槍嗎。是的,一切都在改變,遠(yuǎn)超你的想象。智能AI無人機(jī)已經(jīng)可以在沒有人為干預(yù)的情況下干掉任何人。一些軍隊也已經(jīng)有能力實施這些系統(tǒng);但是,他們也對未知的結(jié)果感到擔(dān)憂。他們不想依賴那些自己都不清楚運作原理的系統(tǒng)。事實上,美國國防部高級研究計劃局已經(jīng)有一個正在進(jìn)行的XAI項目。

無人駕駛汽車是另一個例子。現(xiàn)在已經(jīng)可以在特斯拉汽車上使用自動駕駛儀了。這對司機(jī)來說是極大的便利。但是,與之而來也有巨大的責(zé)任。當(dāng)你的汽車遇到道德困境時,它會怎么做;在道德困境中,它必須在兩個罪惡的抉擇中選擇損失較小的一個。

例如,自動駕駛儀是否應(yīng)該犧牲一條狗來拯救一個路上的行人?你也可以在麻省理工學(xué)院的道德機(jī)器上一睹集體道德和個人道德。

日復(fù)一日,人工智能系統(tǒng)在更大程度上影響著我們的社會生活。我們需要知道它們在一般情況和特殊事件中如何做出決定。

人工智能的指數(shù)級增長可能會造成生存威脅

我們都看過《終結(jié)者》,目睹了機(jī)器如何具有自我意識,并可能毀滅人類。人工智能是強(qiáng)大的,它可以幫助我們成為一個多星球物種,同時也可能完全摧毀我們,就如《啟示錄》中的場景一樣。

事實上,研究表明,超過30%的人工智能專家認(rèn)為,當(dāng)我們實現(xiàn)通用人智能(ArtificialGeneral Intelligence)時,結(jié)果要么糟糕,要么極其糟糕。所以,防止災(zāi)難性后果的最有力武器就是了解人工智能系統(tǒng)的工作方法,這樣我們就可以使用制衡機(jī)制,就如限制政府權(quán)利過度一樣。

解決人工智能相關(guān)爭議需要推理和解釋

由于過去兩個世紀(jì)人權(quán)和自由的發(fā)展,目前的法律及條例已經(jīng)要求在敏感領(lǐng)域有一定程度的可解釋性。法律論證和推理領(lǐng)域也涉及可解釋性的界限。

人工智能的應(yīng)用程序僅是接管了一些傳統(tǒng)的職業(yè),但這并非代表它們的控制器就不負(fù)責(zé)提供解釋。它們必須遵守同樣的規(guī)則,也必須為其服務(wù)提供解釋。一般法律原則要求在發(fā)生法律糾紛時(例如,當(dāng)自動駕駛的特斯拉撞上行人)對自動化決策作出解釋。

但是,一般規(guī)則和原則并不是要求強(qiáng)制性解釋的唯一理由。我們也有一些當(dāng)代的法律法規(guī),規(guī)范了不同形式的解釋權(quán)。

歐盟的《通用數(shù)據(jù)保護(hù)條例》(GDPR)已經(jīng)定義了解釋權(quán),當(dāng)公民受到自動化決策的約束時,有必要對人工智能系統(tǒng)的邏輯進(jìn)行合理的解釋。

另一方面,在美國,公民有權(quán)獲得拒絕其信貸申請的解釋。事實上,這種權(quán)利迫使信用評分公司在給客戶評分時采用回歸模型(這一模型更易于解釋),以便他們能夠提供強(qiáng)制性的解釋。

消除人工智能系統(tǒng)的歷史偏見需要可解釋性

自古以來人類就有歧視現(xiàn)象,這也反映在收集的數(shù)據(jù)中。當(dāng)一個開發(fā)人員訓(xùn)練一個人工智能模型時,他會給歷史數(shù)據(jù)灌以所有偏見和歧視性元素。而如果觀測有種族偏見,模型在進(jìn)行預(yù)測時也會映射這些偏見。

巴特利特(Bartlett)的研究表明,在美國,至少有6%的少數(shù)族裔的信貸申請純粹是由于歧視性慣例而被拒絕。因此,用這些具有偏見的數(shù)據(jù)來訓(xùn)練一個信用申請系統(tǒng)將對少數(shù)民族產(chǎn)生毀滅性的影響。

對一個社會而言,我們必須了解算法是如何運行的,以及如何才能消除偏見,這樣才能保證社會自由、平等和博愛。

自動化業(yè)務(wù)的決策需要可靠性和信任度

從金融角度來說可解釋性也是有意義的。當(dāng)使用一個支持人工智能的系統(tǒng)來為組織的銷售和市場營銷工作建議具體的行動時,你可能會好奇它為何會如此建議。

決策者們必須明白為什么他們需要采取特定行動,因為他們將為此行動負(fù)責(zé)。這對實體企業(yè)和金融企業(yè)都意義重大。尤其是在金融市場,一個錯誤的舉動會讓公司付出高昂的代價。

如你所見,這些觀點有力論證了為何我們需要可解釋的人工智能。這些觀點來自不同的學(xué)科和領(lǐng)域,如社會學(xué)、哲學(xué)、法學(xué)、倫理學(xué)和商科。因此,我們需要人工智能系統(tǒng)的可解釋性

 

責(zé)任編輯:華軒 來源: 讀芯術(shù)
相關(guān)推薦

2020-11-11 12:15:31

AI人工智能可解釋性

2024-05-28 08:00:00

人工智能機(jī)器學(xué)習(xí)

2019-08-29 18:07:51

機(jī)器學(xué)習(xí)人工智能

2023-03-07 16:48:54

算法可解釋性

2022-02-07 15:49:15

人工智能機(jī)器學(xué)習(xí)技術(shù)

2025-01-13 08:13:18

2025-03-10 08:34:39

2024-09-18 05:25:00

可解釋性人工智能AI

2021-01-08 10:47:07

機(jī)器學(xué)習(xí)模型算法

2022-06-14 14:48:09

AI圖像GAN

2023-05-04 07:23:04

因果推斷貝葉斯因果網(wǎng)絡(luò)

2024-08-05 09:30:00

2020-05-14 08:40:57

神經(jīng)網(wǎng)絡(luò)決策樹AI

2022-04-13 15:10:22

AI決策

2019-11-08 10:17:41

人工智能機(jī)器學(xué)習(xí)技術(shù)

2018-05-23 10:23:18

數(shù)據(jù)系統(tǒng)機(jī)器學(xué)習(xí)

2024-12-20 08:07:45

2019-03-28 09:26:26

數(shù)據(jù)科學(xué)模型機(jī)器學(xué)習(xí)

2023-10-10 09:31:35

自動駕駛技術(shù)

2023-08-15 10:04:40

點贊
收藏

51CTO技術(shù)棧公眾號