自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

解決AI安全問題:NIST人工智能風險管理框架

人工智能 應用安全
盡管人工智能框架面臨著與其他NIST框架類似的風險,但前者的某些風險“差距”或?qū)ζ涞膿鷳n,是人工智能所獨有的。而這些差距正是AI RMF想要彌補解決的。

與任何信息技術(shù)一樣,人工智能也會面臨各種安全問題以及其他新出現(xiàn)的問題,如隱私、歧視、不公平等。美國國家標準與技術(shù)研究所(NIST)正在開發(fā)一個志愿性質(zhì)的框架,以更好地管理人工智能相關(guān)的風險,稱為人工智能風險管理框架(AI RMF)。該框架的目標是提高將可信度納入AI的能力,包括AI的產(chǎn)品、服務(wù)、系統(tǒng)的設(shè)計、開發(fā)、使用和評估。

該框架的初稿建立在2021年12月NIST發(fā)布的一份概念性文件上。NIST希望AI RMF能夠描述基于人工智能的系統(tǒng),其風險與其他領(lǐng)域的風險有何不同,并鼓勵利益相關(guān)群體有針對性地解決這些風險。NIST表示,它可以用于超出框架之外的合規(guī)映射,如現(xiàn)有法律法規(guī)或其他強制性指南等。

盡管人工智能框架面臨著與其他NIST框架類似的風險,但前者的某些風險“差距”或?qū)ζ涞膿鷳n,是人工智能所獨有的。而這些差距正是AI RMF想要彌補解決的。

AI利益相關(guān)群體和技術(shù)特征

NIST將四個利益相關(guān)群體確定為該框架的預期受眾:人工智能系統(tǒng)利益相關(guān)者、運營商和評估者、外部利益相關(guān)者和公眾。采用三級特征分類法,在識別和管理人工智能系統(tǒng)相關(guān)風險的綜合方法中應考慮這些特征:技術(shù)特征、社會技術(shù)特征和指導原則。

技術(shù)特征是指人工智能系統(tǒng)設(shè)計者和開發(fā)者直接控制的因素,可以使用標準評估標準來衡量,如準確性、可靠性和彈性。社會技術(shù)特征指人工智能系統(tǒng)在個人、群體和社會環(huán)境中的使用和感知方式,如“可解釋性”、隱私、安全和管理歧視。在AI RMF分類法中,指導原則指的是更廣泛的社會規(guī)范和價值觀,表明了公平、問責和透明度等社會優(yōu)先事項。

與其他NIST框架一樣,AI RMF核心包含AI風險管理活動的三個要素:功能、類別和子類別。功能是為了映射、測量、管理和治理人工智能風險。盡管AI RMF預期通過概要文件為特定用例提供上下文,但該任務(wù)以及計劃的實踐指南已被推遲到以后的草案中。

在3月中旬發(fā)布框架草案后,NIST舉行了為期三天的研討會,討論人工智能RMF的各個方面,包括深入探討如何減輕人工智能技術(shù)中的有害偏見(歧視)。以下是研討會中的一些觀點:

繪制人工智能風險:上下文環(huán)境很重要

卡內(nèi)基梅隆大學的研究人員Rayid Ghani在NIST的研討會上聲稱,在繪制人工智能風險圖時,“我們?nèi)匀恍枰宄舷挛摹⒂美筒渴饒鼍?。較為理想化的是,所有這些事情都應該在構(gòu)建系統(tǒng)時發(fā)生?!?/p>

美國醫(yī)療保險計劃副總裁Marilyn Zigmund Luke告訴與會者,“考慮到不同環(huán)境和結(jié)構(gòu)的多樣性,個人和組織的風險當然會不同。我認為應該從評估風險的角度來理解所有這些風險,你必須從零開始,去建立一些不同的參數(shù)?!?/p>

測量人工智能活動:需要新技術(shù)

由于人工智能系統(tǒng)中固有的社會政治倫理和習俗的復雜性,人工智能相關(guān)活動的測量仍處于初級階段。圣地亞哥加利福尼亞大學的David Danks認為:“測量功能中的很大一部分實質(zhì)上是交給人去了解的。在這種特定的背景下,歧視味著什么?相關(guān)的價值觀是什么?因為,風險從根本上來說是對組織或人類價值觀的威脅,價值觀很難確定?!?/p>

人工智能安全與研究公司Anthropic的聯(lián)合創(chuàng)始人杰克·克拉克表示,人工智能的出現(xiàn)產(chǎn)生了對新指標和測量方法的需求,理想的情況是將其融入人工智能技術(shù)本身的創(chuàng)造中?!艾F(xiàn)代人工智能技術(shù)的挑戰(zhàn)之一是,需要設(shè)計新的測量技術(shù),并與技術(shù)本身共同開發(fā)。”

管理人工智能風險:培訓數(shù)據(jù)需要升級

AI RMF的管理內(nèi)容解決繪制和測量的風險,以最大限度地提高效益和減少不利影響。但ParityAI的首席技術(shù)官陳家豪表示,數(shù)據(jù)質(zhì)量問題可能會阻礙人工智能的風險管理?!爱斚碌哪P团嘤枖?shù)據(jù),可用性不一定適用于現(xiàn)實世界,因為它可能已經(jīng)過時了幾年。我們必須考慮培訓數(shù)據(jù)是否真的反映了當今世界的狀態(tài)。”

Adobe倫理創(chuàng)新總監(jiān)Grace Yee說,“對于我們來說,提供世界上最好的技術(shù)來創(chuàng)造數(shù)字體驗已經(jīng)不夠了。我們希望確保我們的技術(shù)是為包容性而設(shè)計的,并尊重我們的客戶、社區(qū)和Adobe價值觀。具體來說,我們正在開發(fā)新的系統(tǒng)和流程,以評估我們的人工智能是否在制造有害的偏見?!?/p>

紐約大學法學院的文森特·索瑟蘭提出,使用擁有預測能力的警務(wù)工具可能會出現(xiàn)很大的問題?!斑@些人工智能系統(tǒng)部署在整個刑事系統(tǒng)中,從確定犯罪者到何時釋放罪犯。但直到最近,人們還沒有從根本上認識到,這些工具所依賴的數(shù)據(jù)以及這些工具的運作方式實際上有助于加劇種族不平等,并有助于放大刑事系統(tǒng)本身的弊端?!?/p>

人工智能治理:很少有組織這么做

在人工智能治理政策方面,bnh.ai的科研人員帕特里克·霍爾表示,在大型消費金融組織和其他幾個高監(jiān)管的領(lǐng)域之外,人工智能的使用沒有正式的治理指導,因此公司只能自己解決這些棘手的治理問題。

微軟首席人工智能負責人Natasha Crampton:“當你的治理方法過于分散時,失敗的跡象就會顯現(xiàn)出來。在這種情況下,各團隊希望將人工智能模型部署到生產(chǎn)中,但他們只是采用自己的流程和結(jié)構(gòu),相互之間幾乎沒有協(xié)調(diào)?!?/p>

富國銀行執(zhí)行副總裁兼企業(yè)模型風險主管Agus Sudjianto也強調(diào)了高層對人工智能風險治理的重要性?!叭绻斯ぶ悄茇撠熑嘶蚬芾砣藛T沒有地位、信息來源和高層的支持,談不上治理?!?/p>

埃森哲云首席技術(shù)師Teresa Tung強調(diào),所有企業(yè)都需要關(guān)注人工智能?!叭蚺琶?000內(nèi)的公司中大約一半的公司在其財報上都提及了人工智能。這是每個企業(yè)都需要認識到的?!?/p>

與NIST開發(fā)的其他風險管理框架(如網(wǎng)絡(luò)安全框架)一樣,最終的AI RMF可能會對私營和公共部門產(chǎn)生廣泛的影響。NIST正在向社會征求針對草案的意見,截止日期為2022年4月29日。

責任編輯:趙寧寧 來源: 數(shù)世咨詢
相關(guān)推薦

2022-06-09 16:35:31

人工智能安全數(shù)據(jù)暴露

2023-06-26 16:37:30

AI人工智能

2023-06-25 16:22:24

人工智能AI

2018-07-09 00:07:18

人工智能安全AI

2024-05-10 13:15:27

2023-09-28 00:09:04

NIST網(wǎng)絡(luò)安全

2021-01-04 13:34:12

云安全安全框架數(shù)據(jù)安全

2022-07-01 15:13:12

黑客人工智能安全

2017-10-16 05:51:45

2023-08-08 15:58:03

2023-03-14 10:19:14

AIML數(shù)據(jù)管理

2024-03-29 06:00:00

人工智能新興風險安全威脅

2024-03-01 10:00:09

2021-07-17 06:56:01

人工智能AI

2020-05-18 22:15:46

人工智能人工智能安全AI

2014-12-09 09:10:16

2018-08-13 20:40:02

AI金融企業(yè)風險

2023-03-27 11:33:37

人工智能物聯(lián)網(wǎng)

2022-06-16 11:35:05

人工智能數(shù)據(jù)ML

2024-01-09 15:11:56

點贊
收藏

51CTO技術(shù)棧公眾號