自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人工智能治理是時(shí)候行動(dòng)了

人工智能
關(guān)于人工智能治理的討論往往含糊不清,令人沮喪。組織談?wù)撊斯ぶ悄軅惱砗捅O(jiān)管合規(guī)性,但在實(shí)際實(shí)施方面,許多組織都因不確定性而癱瘓。就目前而言,治理往往是一項(xiàng)高層公司指令,而不是一項(xiàng)具體可行的計(jì)劃。

關(guān)于人工智能治理的討論往往含糊不清,令人沮喪。組織談?wù)撊斯ぶ悄軅惱砗捅O(jiān)管合規(guī)性,但在實(shí)際實(shí)施方面,許多組織都因不確定性而癱瘓。就目前而言,治理往往是一項(xiàng)高層公司指令,而不是一項(xiàng)具體可行的計(jì)劃。

人工智能治理不是一個(gè)通用的、一刀切的框架,而是一種特定于模型的戰(zhàn)略,一種確保運(yùn)營(yíng)層面的透明度、問(wèn)責(zé)制和公平性的戰(zhàn)略!

數(shù)字化轉(zhuǎn)型公司Blackstraw.ai的首席收入官Guy Reams表示,治理不能仍然是一個(gè)抽象的原則。相反,它必須在模型級(jí)別深入嵌入人工智能系統(tǒng),考慮從數(shù)據(jù)沿襲到偏差檢測(cè)再到特定領(lǐng)域風(fēng)險(xiǎn)的所有因素。如果沒(méi)有這種轉(zhuǎn)變,治理將成為一種表面文章,對(duì)防止人工智能失敗或監(jiān)管處罰幾乎沒(méi)有作用。

為了探索這種思維轉(zhuǎn)變,我們應(yīng)該坐下來(lái)討論為什么人工智能治理必須發(fā)展,以及企業(yè)現(xiàn)在應(yīng)該做些什么來(lái)領(lǐng)先于潮流。

為什么公司不能等待監(jiān)管

人工智能治理中的一個(gè)常見(jiàn)誤解是,監(jiān)管機(jī)構(gòu)將制定規(guī)則,減輕企業(yè)的責(zé)任負(fù)擔(dān)。美國(guó)前總統(tǒng)拜登關(guān)于人工智能的行政命令(已被特朗普政府廢除)以及歐盟的《人工智能法案》制定了廣泛的指導(dǎo)方針,但這些政策將始終落后于技術(shù)創(chuàng)新。人工智能的快速發(fā)展,特別是自2022年ChatGPT出現(xiàn)以來(lái),只會(huì)擴(kuò)大這一差距。

Reams警告說(shuō),那些希望人工智能法規(guī)提供完全清晰或免除責(zé)任的公司正在為自己的失敗做準(zhǔn)備。

他說(shuō):“(治理)最終是他們的責(zé)任?!薄爸贫ㄐ姓罨蛱囟ǚㄒ?guī)的危險(xiǎn)在于,它通常會(huì)使人們的想法偏離他們的責(zé)任,并將責(zé)任歸咎于法規(guī)或治理機(jī)構(gòu)?!?/span>

換句話說(shuō),僅靠監(jiān)管并不能使人工智能安全或符合道德規(guī)范。公司必須擁有所有權(quán)。雖然Reams承認(rèn)需要一些監(jiān)管壓力,但他認(rèn)為治理應(yīng)該是一項(xiàng)全行業(yè)的合作努力,而不是一項(xiàng)僵化的、一刀切的任務(wù)。

他解釋說(shuō):“我認(rèn)為,個(gè)人授權(quán)會(huì)產(chǎn)生一個(gè)潛在的問(wèn)題,人們會(huì)認(rèn)為問(wèn)題已經(jīng)解決,但事實(shí)并非如此?!?/span>

企業(yè)必須主動(dòng)建立自己的人工智能治理框架,而不是等待監(jiān)管機(jī)構(gòu)采取行動(dòng)。不作為的風(fēng)險(xiǎn)不僅在于監(jiān)管,還在于運(yùn)營(yíng)、財(cái)務(wù)和戰(zhàn)略。如今忽視人工智能治理的企業(yè)將發(fā)現(xiàn)自己無(wú)法有效地?cái)U(kuò)展人工智能,容易受到合規(guī)風(fēng)險(xiǎn)的影響,并有失去利益相關(guān)者信譽(yù)的風(fēng)險(xiǎn)。

特定模型人工智能治理是當(dāng)務(wù)之急

許多人工智能治理策略的最大缺陷是它們往往過(guò)于抽象,無(wú)法落地。當(dāng)人工智能系統(tǒng)大規(guī)模部署時(shí),廣泛的道德準(zhǔn)則和監(jiān)管復(fù)選框并不容易轉(zhuǎn)化為真正的問(wèn)責(zé)制。治理必須嵌入模型級(jí)別,塑造人工智能在整個(gè)組織中的構(gòu)建、訓(xùn)練和實(shí)施方式。

Reams認(rèn)為,有效的人工智能治理的第一步是建立一個(gè)跨職能的治理委員會(huì)。人工智能監(jiān)管往往由法律和合規(guī)團(tuán)隊(duì)主導(dǎo),導(dǎo)致政策過(guò)于謹(jǐn)慎,扼殺了創(chuàng)新。

Reams回憶道:“我最近看到一項(xiàng)政策,一家企業(yè)決定在整個(gè)企業(yè)范圍內(nèi)禁止使用所有第三方人工智能,使用人工智能的唯一方法就是使用他們自己的內(nèi)部人工智能工具?!薄八裕憧梢杂盟麄儎?chuàng)建的聊天機(jī)器人進(jìn)行自然語(yǔ)言處理,但你不能使用ChatGPT或Anthropic或任何其他工具。”

Reams表示,治理不應(yīng)僅限于少數(shù)人的全面限制,還應(yīng)包括法律、IT安全、商業(yè)領(lǐng)袖、數(shù)據(jù)科學(xué)家和數(shù)據(jù)治理團(tuán)隊(duì)的意見(jiàn),以確保人工智能政策既具有風(fēng)險(xiǎn)意識(shí)又實(shí)用。

透明度是特定模型治理的另一個(gè)關(guān)鍵支柱。谷歌率先提出了模型卡的概念,模型卡是機(jī)器學(xué)習(xí)模型提供的簡(jiǎn)短文檔,可以提供模型訓(xùn)練的背景、可能存在的偏差以及更新的頻率。Reams認(rèn)為這是所有企業(yè)都應(yīng)該采用的最佳實(shí)踐,以揭示黑匣子。

Reams說(shuō):“這樣,當(dāng)有人使用人工智能時(shí),他們會(huì)彈出一張非常開(kāi)放、透明的模型卡,告訴他們問(wèn)題的答案是基于這個(gè)模型的,這就是它的準(zhǔn)確性,這是我們最后一次修改這個(gè)模型。”。

數(shù)據(jù)沿襲在對(duì)抗不透明人工智能系統(tǒng)的透明度支柱中也發(fā)揮著關(guān)鍵作用。Reams說(shuō):“我認(rèn)為有一種黑箱思維,也就是說(shuō),我問(wèn)一個(gè)問(wèn)題,然后(模型)就會(huì)想出來(lái),給我一個(gè)答案?!薄拔艺J(rèn)為我們不應(yīng)該使最終用戶認(rèn)為他們可以信任黑匣子?!?/span>

人工智能系統(tǒng)必須能夠?qū)⑵漭敵鲎匪莸教囟ǖ臄?shù)據(jù)源,確保遵守隱私法,促進(jìn)問(wèn)責(zé)制,并降低產(chǎn)生幻覺(jué)的風(fēng)險(xiǎn)。

偏差檢測(cè)是治理透明度的另一個(gè)關(guān)鍵組成部分,有助于確保模型不會(huì)因訓(xùn)練數(shù)據(jù)不平衡而無(wú)意中偏向某些觀點(diǎn)。Reams表示,人工智能中的偏見(jiàn)并不總是我們與社會(huì)歧視聯(lián)系在一起的公開(kāi)類型,它可能是一個(gè)更微妙的問(wèn)題,即模型根據(jù)其訓(xùn)練的有限數(shù)據(jù)扭曲結(jié)果。為了解決這個(gè)問(wèn)題,公司可以使用偏見(jiàn)檢測(cè)引擎,這是一種第三方工具,可以根據(jù)訓(xùn)練數(shù)據(jù)集分析人工智能輸出,以識(shí)別無(wú)意偏見(jiàn)的模式。

Reams指出:“當(dāng)然,你必須信任第三方工具,但這就是為什么作為一家公司,你需要齊心協(xié)力,因?yàn)槟阈枰_(kāi)始思考這些事情,并開(kāi)始評(píng)估和找出適合你的方法?!彼赋觯颈仨氈鲃?dòng)評(píng)估哪種偏見(jiàn)緩解方法符合其行業(yè)特定的需求。

人為監(jiān)督仍然是關(guān)鍵的保障措施。人工智能驅(qū)動(dòng)的決策正在加速,但讓人參與進(jìn)來(lái)可以確保問(wèn)責(zé)制。在欺詐檢測(cè)或招聘決策等高風(fēng)險(xiǎn)領(lǐng)域,人工審核人員必須在采取行動(dòng)之前驗(yàn)證人工智能生成的見(jiàn)解。

Reams認(rèn)為,這是對(duì)人工智能局限性的必要檢查:“當(dāng)我們開(kāi)發(fā)框架時(shí),確保決策可由人類審查,這樣人類就可以參與決策的循環(huán),我們可以利用這些人類決策來(lái)進(jìn)一步訓(xùn)練人工智能模型。讓人類參與循環(huán)時(shí),模型可以進(jìn)一步增強(qiáng)和改進(jìn),因?yàn)槿祟惪梢栽u(píng)估和審查正在做出的決策?!?/span>

人工智能治理作為競(jìng)爭(zhēng)優(yōu)勢(shì)

人工智能治理不僅關(guān)乎合規(guī)性,還可以作為一種業(yè)務(wù)彈性戰(zhàn)略,定義公司在保持信任和避免法律陷阱的同時(shí)負(fù)責(zé)任地?cái)U(kuò)展人工智能的能力。Reams表示,忽視治理的組織正在錯(cuò)失機(jī)會(huì),隨著人工智能的不斷進(jìn)步,可能會(huì)失去競(jìng)爭(zhēng)優(yōu)勢(shì)。

他說(shuō):“將會(huì)發(fā)生的是,人工智能將變得越來(lái)越大,越來(lái)越復(fù)雜。如果你不掌握治理,那么你就不會(huì)在需要的時(shí)候準(zhǔn)備好實(shí)施這一點(diǎn),而且你也沒(méi)有辦法處理它。如果你還沒(méi)有完成這項(xiàng)工作,那么當(dāng)人工智能真正發(fā)展壯大時(shí),它甚至還沒(méi)有開(kāi)始,你將毫無(wú)準(zhǔn)備。”。

在模型層面嵌入治理的公司將能夠更好地負(fù)責(zé)任地?cái)U(kuò)展人工智能運(yùn)營(yíng),減少監(jiān)管風(fēng)險(xiǎn),并建立利益相關(guān)者的信心。但治理并不是在真空中發(fā)生的,保持這種競(jìng)爭(zhēng)優(yōu)勢(shì)還需要對(duì)人工智能供應(yīng)商的信任。大多數(shù)組織依賴人工智能供應(yīng)商和外部供應(yīng)商提供工具和基礎(chǔ)設(shè)施,這使得整個(gè)人工智能供應(yīng)鏈的透明度和問(wèn)責(zé)制變得至關(guān)重要。

Reams強(qiáng)調(diào),人工智能供應(yīng)商可以發(fā)揮至關(guān)重要的作用,特別是在上述透明度支柱方面,如模型卡、訓(xùn)練數(shù)據(jù)源的披露和偏見(jiàn)緩解策略。公司在部署供應(yīng)商提供的人工智能模型之前,應(yīng)建立供應(yīng)商問(wèn)責(zé)措施,如持續(xù)的偏見(jiàn)檢測(cè)評(píng)估。雖然治理始于內(nèi)部,但它必須擴(kuò)展到更廣泛的人工智能生態(tài)系統(tǒng),以確??沙掷m(xù)和合乎道德的人工智能采用。

以這種整體思維進(jìn)行人工智能治理的組織不僅會(huì)保護(hù)自己免受風(fēng)險(xiǎn),還會(huì)將自己定位為負(fù)責(zé)任的人工智能實(shí)施的領(lǐng)導(dǎo)者。企業(yè)必須將治理從合規(guī)復(fù)選框轉(zhuǎn)變?yōu)樯疃燃伞⑻囟ㄓ谀P偷膶?shí)踐。

現(xiàn)在不采取行動(dòng)的公司將難以負(fù)責(zé)任地?cái)U(kuò)展人工智能,當(dāng)人工智能的采用從實(shí)驗(yàn)階段轉(zhuǎn)變?yōu)檫\(yùn)營(yíng)需要時(shí),將處于戰(zhàn)略劣勢(shì)。在這種新范式中,人工智能治理的未來(lái)將不是由監(jiān)管機(jī)構(gòu)定義的,而是由在制定實(shí)用的模型級(jí)治理框架方面發(fā)揮領(lǐng)導(dǎo)作用的組織塑造的。

責(zé)任編輯:華軒 來(lái)源: Ai時(shí)代前沿
相關(guān)推薦

2024-03-22 10:17:09

人工智能數(shù)字化轉(zhuǎn)型AI

2020-11-30 08:41:23

人工智能大數(shù)據(jù)智慧城市

2017-09-15 18:16:56

人工智能Python

2024-09-06 15:36:56

2020-12-18 13:22:33

人工智能算法

2019-09-04 09:00:00

人工智能大數(shù)據(jù)技術(shù)

2017-08-28 14:21:20

人工智能崗位互聯(lián)網(wǎng)

2020-08-31 15:15:20

人工智能算法AI

2021-07-17 22:49:52

人工智能科學(xué)技術(shù)

2022-08-18 11:07:17

網(wǎng)絡(luò)人工智能AI

2024-02-05 11:09:57

2023-12-18 18:56:28

超級(jí)人工智能人工智能

2023-05-05 14:02:59

人工智能聊天機(jī)器人

2022-07-26 11:27:40

人工智能AIOps

2024-03-20 06:57:48

人工智能TRISMAI

2023-08-16 10:58:20

2020-10-27 10:04:54

人工智能AI人工智能技術(shù)

2021-04-13 10:37:46

人工智能數(shù)據(jù)技術(shù)

2025-01-17 14:03:02

2022-06-02 11:39:15

邊緣人工智能機(jī)器學(xué)習(xí)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)