自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI決策:企業(yè)該如何劃清界限?

安全 應(yīng)用安全
人工智能應(yīng)該用于管理決策嗎?也許吧。它會(huì)被用來(lái)做出一些決策嗎?幾乎可以肯定。人工智能的吸引力——它能夠捕獲、關(guān)聯(lián)和分析多個(gè)數(shù)據(jù)集并提供新的見(jiàn)解——使其成為企業(yè)簡(jiǎn)化運(yùn)營(yíng)和降低成本的有力工具。

“計(jì)算機(jī)永遠(yuǎn)不能承擔(dān)責(zé)任,因此計(jì)算機(jī)永遠(yuǎn)不能做出管理決策?!?/p>

– IBM 培訓(xùn)手冊(cè),1979 年

人工智能 (AI) 的采用正在不斷增加。根據(jù)IBM 2023 年全球 AI 采用指數(shù),42% 的企業(yè)已積極部署 AI,40% 的企業(yè)正在試驗(yàn)該技術(shù)。在使用或探索 AI 的企業(yè)中,59% 的企業(yè)在過(guò)去兩年中加快了投資和推廣速度。結(jié)果是利用智能工具得出(據(jù)稱)準(zhǔn)確答案的 AI 決策能力有所提升。

然而,快速采用也引發(fā)了一個(gè)問(wèn)題:如果人工智能做出錯(cuò)誤選擇,誰(shuí)該負(fù)責(zé)?錯(cuò)在 IT 團(tuán)隊(duì)?高管?人工智能模型構(gòu)建者?還是設(shè)備制造商?

在本文中,我們將探索不斷發(fā)展的人工智能世界,并根據(jù)當(dāng)前用例重新審視上述引言:公司是否仍然需要人類參與,還是可以由人工智能來(lái)做出決定?

正確做法:人工智能在哪些方面改善了業(yè)務(wù)成果

DEGI 首席顧問(wèn)兼 ISACA 工作趨勢(shì)小組成員 Guy Pearce 從事人工智能研究已有 30 多年?!捌鸪酰斯ぶ悄苁窍笳餍缘模彼f(shuō),“現(xiàn)在它是統(tǒng)計(jì)性的。人工智能是算法和模型,可以處理數(shù)據(jù)并隨著時(shí)間的推移提高業(yè)務(wù)績(jī)效?!?/span>

IBM 最新發(fā)布的《AI 在行動(dòng)》報(bào)告中的數(shù)據(jù)顯示了這一轉(zhuǎn)變的影響。三分之二的領(lǐng)導(dǎo)者表示,AI 推動(dòng)了收入增長(zhǎng)率超過(guò) 25%,72% 的領(lǐng)導(dǎo)者表示,高管層與 IT 領(lǐng)導(dǎo)層在 AI 成熟道路上的下一步行動(dòng)上意見(jiàn)完全一致。

隨著人們對(duì)人工智能的信心不斷增長(zhǎng),企業(yè)正在實(shí)施智能工具來(lái)改善業(yè)務(wù)成果。例如,財(cái)富管理公司Consult Venture Partners 部署了 AIda AI,這是一款對(duì)話式數(shù)字人工智能禮賓服務(wù),它使用 IBM Watsonx 助手技術(shù)來(lái)回答潛在客戶的問(wèn)題,而無(wú)需人工代理。

結(jié)果不言而喻:Alda AI 正確回答了 92% 的查詢,47% 的查詢促成了網(wǎng)絡(luò)研討會(huì)注冊(cè),39% 的查詢轉(zhuǎn)化為潛在客戶。

偏離目標(biāo):如果人工智能犯了錯(cuò)誤會(huì)發(fā)生什么?

92% 對(duì)于 Alda AI 來(lái)說(shuō)是一個(gè)令人印象深刻的成就。但要注意的是,它仍然有 8% 的時(shí)間是錯(cuò)誤的。那么,當(dāng) AI 犯錯(cuò)時(shí)會(huì)發(fā)生什么呢?

對(duì)于皮爾斯來(lái)說(shuō),這取決于賭注。

他以一家金融公司利用人工智能評(píng)估信用評(píng)分并發(fā)放貸款為例。這些決策的結(jié)果風(fēng)險(xiǎn)相對(duì)較低。在最好的情況下,人工智能會(huì)批準(zhǔn)按時(shí)全額償還的貸款。在最壞的情況下,借款人違約,公司需要采取法律行動(dòng)。雖然不方便,但負(fù)面結(jié)果遠(yuǎn)遠(yuǎn)超過(guò)了潛在的積極影響。

“說(shuō)到高風(fēng)險(xiǎn),”皮爾斯說(shuō),“看看醫(yī)療行業(yè)。假設(shè)我們使用人工智能來(lái)解決等待時(shí)間的問(wèn)題。我們是否有足夠的數(shù)據(jù)來(lái)確?;颊甙凑照_的順序就診?如果我們做錯(cuò)了怎么辦?結(jié)果可能是死亡?!?/span>

因此,人工智能如何用于決策,很大程度上取決于它所做出的決策是什么,以及這些決策如何影響做出決策的公司和受決策影響的人。

在某些情況下,即使是最壞的情況也只會(huì)帶來(lái)一點(diǎn)不便。但在另一些情況下,其結(jié)果可能會(huì)造成重大損害。 

承擔(dān)責(zé)任:如果人工智能犯了錯(cuò)誤,誰(shuí)該負(fù)責(zé)?

2024 年 4 月,一輛處于“全自動(dòng)駕駛”模式的特斯拉汽車(chē)撞死了一名摩托車(chē)手。盡管需要駕駛員主動(dòng)監(jiān)督,但該車(chē)司機(jī)承認(rèn)在事故發(fā)生前一直在看手機(jī)。

那么誰(shuí)該承擔(dān)責(zé)任?司機(jī)顯然是最佳人選,他因交通殺人罪被捕。

但這并不是追究責(zé)任的唯一途徑。特斯拉也應(yīng)該承擔(dān)一定責(zé)任,因?yàn)樵摴镜娜斯ぶ悄芩惴ㄎ茨馨l(fā)現(xiàn)受害者。責(zé)任也可以歸咎于國(guó)家公路交通安全管理局 (NHTSA) 等管理機(jī)構(gòu)。也許他們的測(cè)試不夠嚴(yán)格或完整。

甚至有人認(rèn)為,特斯拉人工智能的創(chuàng)造者應(yīng)該為發(fā)布可能致命的代碼承擔(dān)責(zé)任。

這就是人工智能決策的悖論:是某個(gè)人犯了錯(cuò),還是所有人都犯了錯(cuò)?“如果你把所有應(yīng)該承擔(dān)責(zé)任的利益相關(guān)者聚集在一起,那么責(zé)任在哪里?”皮爾斯問(wèn)道?!笆歉吖軐樱窟€是整個(gè)團(tuán)隊(duì)?如果責(zé)任遍布整個(gè)組織,那么每個(gè)人都不會(huì)坐牢。最終,共同承擔(dān)責(zé)任往往會(huì)導(dǎo)致沒(méi)有責(zé)任?!?/span>

劃清界限:人工智能的終點(diǎn)在哪里?

那么,組織應(yīng)該在哪里劃定界限呢?人工智能洞察力何時(shí)讓位于人類決策?

有三個(gè)考慮因素至關(guān)重要:道德、風(fēng)險(xiǎn)和信任。

“當(dāng)涉及到道德困境時(shí),”皮爾斯說(shuō),“人工智能無(wú)法解決?!边@是因?yàn)橹悄芄ぞ咦匀粫?huì)尋求最有效的途徑,而不是最道德的途徑。因此,任何涉及道德問(wèn)題或擔(dān)憂的決定都應(yīng)包括人類的監(jiān)督。

與此同時(shí),風(fēng)險(xiǎn)是人工智能的專長(zhǎng)。“人工智能擅長(zhǎng)風(fēng)險(xiǎn),”皮爾斯說(shuō)?!敖y(tǒng)計(jì)模型會(huì)給你一個(gè)標(biāo)準(zhǔn)誤差,讓你知道人工智能的建議是具有高還是低的潛在變異性?!边@使得人工智能非常適合基于風(fēng)險(xiǎn)的決策,比如金融或保險(xiǎn)領(lǐng)域的決策。

最后,企業(yè)需要優(yōu)先考慮信任。“人們對(duì)機(jī)構(gòu)的信任度正在下降,”皮爾斯說(shuō)?!霸S多公民不相信他們分享的數(shù)據(jù)被以值得信賴的方式使用?!?/span>

例如,根據(jù)《GDPR》,公司需要對(duì)數(shù)據(jù)收集和處理保持透明,并讓公民有機(jī)會(huì)選擇退出。為了增強(qiáng)人們對(duì)使用人工智能的信任,組織應(yīng)該清楚地說(shuō)明他們使用人工智能的方式和原因,并(在可能的情況下)允許客戶和客戶選擇退出人工智能驅(qū)動(dòng)的流程。

決策,決策

人工智能應(yīng)該用于管理決策嗎?也許吧。它會(huì)被用來(lái)做出一些決策嗎?幾乎可以肯定。人工智能的吸引力——它能夠捕獲、關(guān)聯(lián)和分析多個(gè)數(shù)據(jù)集并提供新的見(jiàn)解——使其成為企業(yè)簡(jiǎn)化運(yùn)營(yíng)和降低成本的有力工具。

不太清楚的是,向管理層決策的轉(zhuǎn)變將如何影響問(wèn)責(zé)制。皮爾斯表示,目前的情況造成了這一領(lǐng)域的“界限模糊”;立法還沒(méi)有跟上人工智能使用率的提高。

為了確保符合道德原則、降低錯(cuò)誤選擇的風(fēng)險(xiǎn)并贏得利益相關(guān)者和客戶的信任,企業(yè)最好讓人類參與其中。也許這意味著在人工智能采取行動(dòng)之前需要得到員工的直接批準(zhǔn)。也許這意味著偶爾要審查和評(píng)估人工智能的決策結(jié)果。

但無(wú)論企業(yè)選擇哪種方法,核心信息始終不變:在人工智能驅(qū)動(dòng)的決策方面,沒(méi)有固定的界限。這是一個(gè)不斷變化的目標(biāo),由可能的風(fēng)險(xiǎn)、潛在的回報(bào)和可能的結(jié)果決定。

責(zé)任編輯:武曉燕 來(lái)源: 祺印說(shuō)信安
相關(guān)推薦

2018-01-17 06:04:48

2009-08-21 15:16:15

2010-08-20 10:34:29

施密特

2011-05-18 15:32:22

華為中興

2021-03-11 10:10:16

決策智能數(shù)據(jù)CIO

2022-04-11 13:25:48

人工智能

2014-10-28 14:00:58

羅永浩錘子降價(jià)

2012-02-01 10:43:16

微軟Web

2014-07-07 11:08:37

監(jiān)聽(tīng)NSA斯諾登

2021-07-13 09:42:32

可信AI人工智能AI

2021-07-13 07:41:08

人工智能AI深度學(xué)習(xí)

2024-05-16 20:54:29

生成式AI

2014-04-08 13:17:42

2019-09-17 07:59:13

云安全數(shù)據(jù)安全網(wǎng)絡(luò)安全

2024-09-12 09:16:11

2011-05-18 12:47:53

2022-04-08 13:59:42

云計(jì)算IT決策者企業(yè)

2013-01-24 10:52:16

CIO企業(yè)移動(dòng)開(kāi)發(fā)

2016-01-07 11:05:00

Saas創(chuàng)業(yè)

2015-04-14 09:55:40

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)