自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

什么是AI透明度,為什么我們需要它?

人工智能
我們可能完全不知道到最終AI算法底會進化成什么樣,是否會造成嚴重的后果,一切皆有可能……

 雖然雖然越老越多的企業(yè)組織在使用AI技術,但許多企業(yè)對它的工作方式尚無清晰的了解。本文中,我們探討了AI缺乏透明性的利弊。

[[342555]]

當基于規(guī)則的軟件編程不再能夠解決計算世界想要解決的問題時,現(xiàn)代AI誕生了。我們不可能對程序必須測量的所有條件進行編碼,因此計算專家設計了模仿人類思維方式的機器,從而使AI能夠通過觀察數(shù)據(jù)自行學習。這種稱為神經網絡的方法催生了AI技術,例如人臉識別程序、癌癥檢測算法和自動駕駛汽車。

但是神經網絡帶有一個折衷之處:我們無法理解系統(tǒng)的工作方式,AI模型缺乏透明度。這種現(xiàn)象被稱為黑匣子AI,事實證明這是個問題,而且可能是嚴重的問題。

黑盒AI的權衡

AI通常以準確性百分比來衡量,即系統(tǒng)在多大程度上能夠給出正確答案。根據(jù)手頭的任務,所需的最低精度可能會有所不同,但是即使是99%的精度也不能成為AI值的唯一度量。我們還必須考慮到AI的主要缺點,尤其是在將AI應用于商業(yè)中時:具有近乎完美準確性的AI模型也可能會出現(xiàn)問題。

隨著模型準確性的提高,人工智能解釋其得出某個答案的原因的能力下降,這使企業(yè)必須面對的一個問題是:缺乏模型的AI透明度,因此,我們人類無法信任其結果。因為,我們可能完全不知道到最終算法底會進化成什么樣,是否會造成嚴重的后果,一切皆有可能。

黑盒問題在AI技術的早期階段可以接受,但是當發(fā)現(xiàn)算法偏差時就失去了它的優(yōu)點。例如,經過開發(fā)的AI可以根據(jù)種族對喪失工作能力的人進行分類,而用于銀行業(yè)務AI根據(jù)性別篩選不合格貸款申請者。 AI接受訓練的數(shù)據(jù)并不平衡,無法包含各種人的足夠數(shù)據(jù),人類決策中存在的歷史偏見也傳遞到了AI算法模型中。

AI還表明,近乎完美的模型仍可能犯下令人震驚的錯誤。精度為99%的AI模型可能會為剩余的1%產生誤差,例如將停車標志分類為限速標志。猶如,千萬人級別人口的大城市,1%的數(shù)量也不容小覷。

盡管這是錯誤分類或數(shù)據(jù)量不足的一些最極端情況,但它們仍然突顯了AI算法存在缺陷的可能性。人工智能遵循一種模式來得出答案,其神奇之處在于,它在超越人力的情況下表現(xiàn)出色。出于相同的原因,模式中的異常更改使模型容易受到攻擊,這也是我們需要AI透明度的原因,我們需要知道AI如何得出結論。

特別是,當使用AI進行關鍵決策時,必須了解算法的推理過程與邏輯關系。旨在檢測癌癥的AI模型(即使錯誤率僅為1%)也可能威脅生命。在這種情況下,人工智能和人類需要一起協(xié)同工作,并且當人工智能模型可以解釋其如何達成某個決定時,任務將變得更加容易。 AI的透明度使其成為團隊合作者。

從法律的角度來看,有時透明是必要的步驟。

數(shù)據(jù)分析行業(yè)思想領導者Piyanka Jain說:“一些受監(jiān)管的行業(yè),例如銀行,都將模型的可解釋性作為在模型投入生產之前獲得合規(guī)和法律批準的必要步驟。”

其他案例涉及GDPR或《加利福尼亞消費者隱私法》,其中AI處理私人信息。AI軟件公司 Stradigi AI首席科學官兼聯(lián)合創(chuàng)始人Carolina Bessega說:“ GDPR的一個方面是,當使用個人私人數(shù)據(jù)的算法做出決定時,人類有權提出該決定背后的原因。”

看來AI透明性有很多好處,但是為什么所有的算法都不透明?

人工智能透明度不足

就像可以解釋如何實現(xiàn)某個決策的算法一樣,它也可以按比例變得更容易被黑客入侵。

通過了解AI的推理,黑客將可以更輕松地欺騙算法。 “在欺詐檢測中不鼓勵AI透明,” Jain解釋說。 “我們希望更少的人知道我們如何抓到欺詐行為-網絡安全方面也是如此。總的來說,當我們試圖使用AI來抓捕壞人時,我們希望更少的人知道潛在的邏輯,而AI很適合那。”

AI透明度的另一個問題是專有算法的保護,因為研究人員已證明,僅通過查看其解釋即可盜竊整個算法。

最后,透明算法更難設計,至少暫時而言,它們只能應用于更簡單的模型。如果必須要具有透明度,那么它可能會迫使企業(yè)和組織使用不太復雜的算法。

如何達到平衡

與其他任何計算機程序一樣,人工智能需要優(yōu)化。為此,我們要查看特定問題的特定需求,然后調整通用模型以最適合這些需求。

實施AI時,組織必須注意以下四個因素:

法律需求:如果工作需要從法律和法規(guī)的角度進行解釋,那么除了提供透明度之外別無選擇。為此,組織可能必須訴諸更簡單但可解釋的算法。

嚴重程度:如果要在生命攸關的任務中使用AI,則必須做到透明。這樣的任務很可能不僅僅依賴于AI,因此擁有推理機制可以改善與操作員的團隊合作。如果AI影響某人的生活,例如用于工作應用程序的算法,則同樣適用。

另一方面,如果AI的任務不是很關鍵,那么不透明的模型就足夠了??紤]一種算法,該算法建議下一個潛在客戶接觸具有數(shù)千個潛在客戶的數(shù)據(jù)庫,交叉檢查AI的決定根本不值得。

訪問權限:根據(jù)誰可以訪問AI模型,組織可能希望保護算法免受不必要的影響。如果可解釋性可以幫助專家得出更好的結論,那么即使在網絡安全領域,它也可以是很好的。但是,如果局外人可以訪問同一資源并了解該算法的工作原理,則最好使用不透明的模型。

數(shù)據(jù)集:無論何種情況,組織都必須始終努力擁有最好來自盡可能多的來源的多樣化且平衡的數(shù)據(jù)集。最終,我們將盡可能多地依賴于AI,并且AI僅像訓練過的數(shù)據(jù)一樣智能。通過清理訓練數(shù)據(jù),消除噪聲并平衡輸入,我們可以幫助減少偏差并提高模型的準確性。

  1. 大數(shù)據(jù)應用助推“智慧住建”提效升級
  2. 實戰(zhàn)演練出真功 鍛造國家網絡安全新長城
  3. 李津:阿里云開啟技術服務“新長征”
  4. 物聯(lián)網與大數(shù)據(jù)助力提升城市治理水平
  5. 不能掉以輕心,上半年發(fā)布的網絡安全政策學起來!
【責任編輯:姜華 TEL:(010)68476606】

 

責任編輯:姜華 來源: 千家網
相關推薦

2018-03-22 14:47:13

容器開發(fā)人員筆記本

2023-11-07 08:00:00

Kubernetes

2017-07-18 09:02:05

磁盤克隆軟件

2021-10-09 22:10:30

Windows 11Windows微軟

2020-07-30 11:51:48

快充PD協(xié)議iPhone

2021-08-23 16:41:01

AI人工智能

2019-10-10 10:30:07

云計算云安全公共云

2024-09-02 13:59:16

2018-09-14 18:00:29

無損網絡

2019-08-05 08:42:37

物聯(lián)網IOT技術

2022-08-26 08:00:19

企業(yè)架構IT

2023-09-05 09:49:03

2020-04-06 14:45:22

云計算邊緣計算網絡

2022-12-01 14:43:56

物聯(lián)網智慧城市

2024-07-30 09:43:59

2021-09-23 10:00:37

物聯(lián)網咨詢服務物聯(lián)網IOT

2010-09-13 15:32:38

DIV背景

2021-03-05 16:17:48

物聯(lián)網連接物聯(lián)網IOT

2019-08-01 07:48:27

物聯(lián)網模塊物聯(lián)網IOT

2015-08-03 10:40:45

動效設計優(yōu)勢
點贊
收藏

51CTO技術棧公眾號