自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

如何管理人工智能風(fēng)險和安全?

人工智能
在大多數(shù)組織中,人工智能模型是“黑匣子”,只有數(shù)據(jù)科學(xué)家知道人工智能到底做什么。這可能會給組織帶來重大風(fēng)險。

?大型、敏感的數(shù)據(jù)集經(jīng)常被用于訓(xùn)練AI模型,從而產(chǎn)生隱私和數(shù)據(jù)泄露風(fēng)險。人工智能的使用增加了組織的威脅向量,并擴大了其攻擊面。人工智能進一步為良性錯誤創(chuàng)造了新的機會,對模式和業(yè)務(wù)結(jié)果產(chǎn)生不利影響。

不了解的風(fēng)險無法減輕。Gartner最近對首席信息安全官的一項調(diào)查顯示,大多數(shù)組織沒有考慮到人工智能帶來的新的安全和業(yè)務(wù)風(fēng)險,或者他們必須采取新的控制措施來降低這些風(fēng)險。人工智能需要新型風(fēng)險和安全管理措施以及緩解框架。

以下是安全和風(fēng)險領(lǐng)導(dǎo)者應(yīng)該關(guān)注的五大優(yōu)先事項,以有效管理其組織內(nèi)的人工智能風(fēng)險和安全:

1、捕捉AI暴露程度

機器學(xué)習(xí)模型對大多數(shù)用戶來說是不透明的,并且與一般的軟件系統(tǒng)不同,它們的內(nèi)部工作原理甚至連最熟練的專家都不知道。數(shù)據(jù)科學(xué)家和模型開發(fā)人員通常理解他們的機器學(xué)習(xí)模型試圖做什么,但他們不能總是破譯模型處理數(shù)據(jù)的內(nèi)部結(jié)構(gòu)或算法手段。

這種理解能力的缺乏嚴重限制了組織管理AI風(fēng)險的能力。人工智能風(fēng)險管理的第一步是列出組織中使用的所有人工智能模型,無論它們是第三方軟件的組件、內(nèi)部開發(fā)或通過軟件即服務(wù)應(yīng)用程序訪問。這應(yīng)該包括識別各種模型之間的相互依賴關(guān)系。然后根據(jù)運營影響對模型進行排序,并考慮到風(fēng)險管理控制可以根據(jù)確定的優(yōu)先級逐步應(yīng)用。

一旦模型被列出,下一步就是使它們盡可能的可解釋或可解釋性?!翱山忉屝浴币馕吨a(chǎn)生細節(jié)、原因或解釋的能力,為特定的受眾闡明模型的功能。這將為風(fēng)險和安全管理者提供管理和減輕由模型結(jié)果帶來的業(yè)務(wù)、社會、責(zé)任和安全風(fēng)險的環(huán)境。

2、通過人工智能風(fēng)險教育活動提高員工意識

員工意識是人工智能風(fēng)險管理的一個重要組成部分。首先,讓所有參與者,包括CISO、首席隱私官、首席數(shù)據(jù)官以及法律和合規(guī)官,重新調(diào)整他們對AI的心態(tài)。他們應(yīng)該明白,人工智能“不像任何其他應(yīng)用程序”——它會帶來獨特的風(fēng)險,需要特定的控制來減輕此類風(fēng)險。然后,與業(yè)務(wù)利益相關(guān)者聯(lián)系,以擴大對需要管理的AI風(fēng)險的認識。

與這些利益相關(guān)者一起,確定跨團隊和隨著時間的推移構(gòu)建AI知識的最佳方式。例如,看看是否可以在企業(yè)的學(xué)習(xí)管理系統(tǒng)中添加一門關(guān)于基本AI概念的課程。與應(yīng)用程序和數(shù)據(jù)安全部門合作,幫助在所有組織成員中培養(yǎng)AI知識。

3、通過隱私計劃消除人工智能數(shù)據(jù)暴露

根據(jù)Gartner最近的一項調(diào)查,隱私和安全一直被視為人工智能實現(xiàn)的主要障礙。采用數(shù)據(jù)保護和隱私程序可以有效地消除AI內(nèi)部和共享數(shù)據(jù)的暴露。

有一系列方法可以用于訪問和共享基本數(shù)據(jù),同時仍然滿足隱私和數(shù)據(jù)保護要求。確定哪種數(shù)據(jù)隱私技術(shù)或技術(shù)組合,對組織的特定用例最有意義。例如,調(diào)查諸如數(shù)據(jù)屏蔽、合成數(shù)據(jù)生成或差分隱私等技術(shù)。

在向外部組織導(dǎo)出或?qū)霐?shù)據(jù)時,應(yīng)滿足數(shù)據(jù)隱私要求。在這些場景中,像完全同態(tài)加密和安全多方計算等技術(shù),應(yīng)該比保護數(shù)據(jù)不受內(nèi)部用戶和數(shù)據(jù)科學(xué)家的影響更有用。

4、將風(fēng)險管理納入模型運營

AI模型需要特殊用途的流程作為模型操作或ModelOps的一部分,以使人工智能可靠且高效。隨著環(huán)境因素的不斷變化,AI模型必須持續(xù)監(jiān)測業(yè)務(wù)價值泄漏和不可預(yù)測的(有時是不利的)結(jié)果。

有效的監(jiān)控需要對AI模型的理解。專門的風(fēng)險管理流程必須成為ModelOps的一個組成部分,以使AI更值得信任、準確、公平,并對對抗性攻擊或良性錯誤更有彈性。

控制措施應(yīng)該持續(xù)應(yīng)用——例如,貫穿模型開發(fā)、測試和部署以及持續(xù)運營的整個過程。有效的控制將檢測到惡意行為、良性錯誤和AI數(shù)據(jù)或模型的意外變化,這些變化會導(dǎo)致不公平、損壞、不準確、模型性能和預(yù)測不佳,以及其他意想不到的后果。

5、采用人工智能安全措施應(yīng)對對抗性攻擊

檢測和阻止對人工智能的攻擊需要新的技術(shù)。對AI的惡意攻擊可能導(dǎo)致重大的組織損害和損失,包括財務(wù)、聲譽或與知識產(chǎn)權(quán)、敏感客戶數(shù)據(jù)或?qū)S袛?shù)據(jù)相關(guān)的數(shù)據(jù)。與安全部門合作的應(yīng)用程序負責(zé)人必須在他們的AI應(yīng)用程序中添加控制,以檢測異常數(shù)據(jù)輸入、惡意攻擊和良性輸入錯誤。

圍繞AI模型和數(shù)據(jù)實施一整套傳統(tǒng)的企業(yè)安全控制,以及針對AI的全新完整性措施,如容忍對抗性AI的訓(xùn)練模型。最后,使用欺詐、異常檢測和機器人檢測技術(shù),防止AI數(shù)據(jù)中毒或輸入錯誤檢測。?

責(zé)任編輯:華軒 來源: 千家網(wǎng)
相關(guān)推薦

2024-05-10 13:15:27

2023-08-08 15:58:03

2024-03-06 14:36:55

2024-03-01 10:00:09

2024-06-28 01:12:11

2023-07-07 10:55:49

2022-04-26 06:42:02

AI安全NIST網(wǎng)絡(luò)安全

2025-03-10 10:12:25

2020-05-18 22:15:46

人工智能人工智能安全AI

2024-03-29 06:00:00

人工智能新興風(fēng)險安全威脅

2023-08-17 15:50:53

2021-04-14 23:08:00

人工智能教育安全

2022-09-29 14:40:32

人工智能人工智能風(fēng)險

2022-10-12 14:35:25

人工智能人臉識別安全

2023-05-30 15:34:22

2017-09-19 14:54:14

人工智能克隆授權(quán)

2021-08-09 14:35:14

人工智能運輸管理物聯(lián)網(wǎng)

2024-04-24 14:11:07

2023-07-11 09:56:52

2023-07-04 10:36:57

人工智能
點贊
收藏

51CTO技術(shù)棧公眾號