自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

NIST:人工智能偏見遠(yuǎn)遠(yuǎn)超出數(shù)據(jù)本身

人工智能
NIST強(qiáng)烈主張要超越數(shù)據(jù)甚至ML過程來(lái)發(fā)現(xiàn)和解決AI偏見……

?到目前為止,應(yīng)該沒有人會(huì)質(zhì)疑大多數(shù)人工智能都是建立在某種程度上有問題的偏見之上的,而且目前也在使用這種偏見。這是一個(gè)被觀察和證實(shí)了數(shù)百次的挑戰(zhàn)。組織機(jī)構(gòu)面臨的挑戰(zhàn)是根除人工智能偏見,而不是僅僅滿足于推動(dòng)更好的、無(wú)偏見的數(shù)據(jù)。

在對(duì)其出版物《邁向人工智能中識(shí)別和管理偏見的標(biāo)準(zhǔn)》(NIST 1270特別出版物)的一次重大修訂中,在去年的公眾評(píng)論期之后,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)提出了一個(gè)強(qiáng)有力的論點(diǎn),即超越數(shù)據(jù)甚至ML過程來(lái)發(fā)現(xiàn)和摧毀AI偏見。

作者們沒有指責(zé)收集不當(dāng)或標(biāo)記不當(dāng)?shù)臄?shù)據(jù),而是表示,人工智能偏見的下一個(gè)前沿是“人類和系統(tǒng)的制度和社會(huì)因素”,并推動(dòng)從社會(huì)技術(shù)角度尋找更好的答案。

“環(huán)境決定一切,”NIST人工智能偏見的首席研究員、該報(bào)告的作者之一瑞瓦·施瓦茨(Reva Schwartz)說(shuō)?!叭斯ぶ悄芟到y(tǒng)不是孤立運(yùn)行的。他們幫助人們做出直接影響他人生活的決定。如果我們要開發(fā)值得信賴的人工智能系統(tǒng),我們需要考慮所有可能削弱公眾對(duì)人工智能的信任的因素。這些因素中有許多已經(jīng)超越了技術(shù)本身,還影響了技術(shù),我們從各種各樣的人和組織收到的評(píng)論都強(qiáng)調(diào)了這一點(diǎn)?!?/p>

造成人工智能偏見的人為和系統(tǒng)偏見是什么?

根據(jù)NIST的報(bào)告,人類基礎(chǔ)分為兩大類:個(gè)體和群體,每個(gè)類別下都有許多特定的偏見。

個(gè)體的人類偏見包括自動(dòng)化自滿,即人們過度依賴自動(dòng)化技能;內(nèi)隱偏見,一種影響某人做決定的無(wú)意識(shí)的信念、態(tài)度、聯(lián)想或刻板印象;還有確認(rèn)偏見,也就是人們更喜歡與他們現(xiàn)有信念一致或一致的信息。

群體人類基礎(chǔ)包括群體思維(groupthink),即人們出于順應(yīng)群體或避免分歧的愿望而做出非最優(yōu)決策的現(xiàn)象;資金偏見,當(dāng)報(bào)告有偏見的結(jié)果以滿足一個(gè)資助機(jī)構(gòu)或財(cái)政支持者,這反過來(lái)可能會(huì)受到額外的個(gè)人/群體偏見的影響。

對(duì)于系統(tǒng)性偏見,NIST報(bào)告將其定義為歷史的、社會(huì)的和制度的。從本質(zhì)上講,長(zhǎng)期存在的偏見隨著時(shí)間的推移已經(jīng)被編入社會(huì)和機(jī)構(gòu),并在很大程度上被視為“事實(shí)”或“事情就是這樣的”。

這些偏見之所以重要,是因?yàn)槿斯ぶ悄懿渴饘?duì)當(dāng)今組織的工作方式有多么大的影響。由于種族偏見的數(shù)據(jù),人們被剝奪了抵押貸款,剝奪了他們首次擁有住房的機(jī)會(huì)。求職者被拒絕面試,因?yàn)槿斯ぶ悄鼙挥?xùn)練成歷史上的雇傭決定,這更傾向于男性而不是女性。有前途的年輕學(xué)生會(huì)因?yàn)樗麄兊男帐吓c過去成功人士的名字不匹配而被大學(xué)拒絕面試或錄取。

換句話說(shuō):有偏見的人工智能創(chuàng)造了與效率開口一樣多的鎖門 。 如果組織不積極努力消除部署中的偏見,他們很快就會(huì)發(fā)現(xiàn)自己在思考和操作方面嚴(yán)重缺乏信任。

NIST 推薦的社會(huì)技術(shù)觀點(diǎn)是什么?

其核心是認(rèn)識(shí)到任何人工智能應(yīng)用的結(jié)果都不只是數(shù)學(xué)和計(jì)算輸入。它們是由開發(fā)人員或數(shù)據(jù)科學(xué)家制作的,他們的職位和機(jī)構(gòu)各不相同,他們都有一定程度的負(fù)擔(dān)。

NIST的報(bào)告中寫道:“人工智能的社會(huì)技術(shù)方法考慮了從數(shù)據(jù)集建模的價(jià)值和行為,與它們交互的人類,以及復(fù)雜的組織因素,這些因素涉及到它們的委托、設(shè)計(jì)、開發(fā)和最終部署?!?/p>

NIST認(rèn)為,通過社會(huì)技術(shù)視角,組織可以通過“準(zhǔn)確性、可解釋性和可理解性、隱私性、可靠性、魯棒性、安全性和安全彈性”來(lái)培養(yǎng)信任。

他們的建議之一是讓組織實(shí)施或改進(jìn)他們的測(cè)試、評(píng)估、確認(rèn)和驗(yàn)證(TEVV)過程。在給定的數(shù)據(jù)集或訓(xùn)練過的模型中,應(yīng)該有方法從數(shù)學(xué)上驗(yàn)證偏差。他們還建議在AI開發(fā)工作中創(chuàng)造更多來(lái)自不同領(lǐng)域和職位的參與,并擁有來(lái)自不同部門或組織外部的多個(gè)利益相關(guān)者。 “?human-in-the-loop”模型中,個(gè)人或集體不斷糾正基本的 ML 輸出,也是消除偏見的有效工具。

除了這些和修訂后的報(bào)告之外,還有NIST的人工智能風(fēng)險(xiǎn)管理框架(AI RMF),這是一套由共識(shí)驅(qū)動(dòng)的建議集,用于管理AI系統(tǒng)涉及的風(fēng)險(xiǎn)。一旦完成,它將涵蓋人工智能技術(shù)和產(chǎn)品的透明度、設(shè)計(jì)和開發(fā)、治理和測(cè)試。人工智能RMF的初始評(píng)論期已經(jīng)過去,但我們?nèi)匀挥泻芏鄼C(jī)會(huì)了解人工智能的風(fēng)險(xiǎn)和緩解措施。

責(zé)任編輯:華軒 來(lái)源: 千家網(wǎng)
相關(guān)推薦

2021-03-19 10:22:03

人工智能

2022-07-18 10:40:29

人工智能AI

2021-10-18 10:59:27

人工智能機(jī)器學(xué)習(xí)技術(shù)

2022-06-22 11:11:48

人工智能AI

2023-09-27 10:23:06

人工智能語(yǔ)言模型

2022-08-29 11:43:29

人工智能AI技術(shù)

2021-09-02 15:01:55

人工智能AI深度學(xué)習(xí)

2022-06-20 11:28:20

人工智能數(shù)據(jù)生成器

2021-12-23 14:17:45

人工智能AI機(jī)器學(xué)習(xí)

2021-08-19 17:25:30

人工智能機(jī)器學(xué)習(xí)自動(dòng)化

2022-04-26 06:42:02

AI安全NIST網(wǎng)絡(luò)安全

2021-11-05 09:56:36

人工智能AI指數(shù)

2017-09-18 15:47:52

2024-04-26 08:53:46

自動(dòng)駕駛人工智能大型語(yǔ)言模型

2021-08-23 08:00:00

人工智能技術(shù)工具

2020-09-24 09:29:34

人工智能

2021-03-04 13:55:51

人工智能偏見AI

2022-01-26 00:22:14

人工智能機(jī)器學(xué)習(xí)偏見

2020-05-25 19:17:29

人工智能AI

2020-12-10 13:46:35

人工智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)