自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

數(shù)據(jù)越多 AI 決策模型越脆弱

人工智能
數(shù)據(jù)是構(gòu)建人工智能系統(tǒng)必需的關(guān)鍵基礎(chǔ)設(shè)施。數(shù)據(jù)在很大程度上決定了 AI 系統(tǒng)的性能、公平性、穩(wěn)健性、安全性和可擴(kuò)展性。

數(shù)據(jù)是構(gòu)建人工智能系統(tǒng)必需的關(guān)鍵基礎(chǔ)設(shè)施。數(shù)據(jù)在很大程度上決定了 AI 系統(tǒng)的性能、公平性、穩(wěn)健性、安全性和可擴(kuò)展性。

[[417902]]

那么,用足夠多的數(shù)據(jù)訓(xùn)練而來的 AI 系統(tǒng),能夠做出正確的決策么?今年 5 月份,medium 上的 Marianne Bellotti 博主發(fā)表了一篇名為“AI 正在解決錯(cuò)誤問題的文章”。在文章中,作者提出一個(gè)觀點(diǎn):在更多數(shù)據(jù)(信息)加持下,人類都不一定做出“合適決策”,為什么要假設(shè) AI 會表現(xiàn)更好呢?

為了論證這個(gè)觀點(diǎn),博主寫道:

“在現(xiàn)實(shí)生活中,決策者往往為了節(jié)約成本而進(jìn)行優(yōu)化決策。但決策畢竟是根據(jù)結(jié)果來判斷好壞的,在正確分析的基礎(chǔ)上還需要一點(diǎn)運(yùn)氣。在結(jié)果出來之前,即使是在絕佳數(shù)據(jù)支持下最仔細(xì)、最徹底構(gòu)建的策略也無法保證決策的絕對正確。”

顯然,這一觀點(diǎn)的意思是:決策的過程與其說是對數(shù)據(jù)的客觀分析,不如說是對風(fēng)險(xiǎn)和優(yōu)先級的權(quán)衡。

最后,基于上述觀察,作者論證了這么一個(gè)觀點(diǎn):數(shù)據(jù)驅(qū)動的 AI 模型,在做決策時(shí)候,極易受到攻擊

AI 的方向存在偏差

面對一個(gè)難題,分步驟、有條理的解決方案是值得肯定的。有哪些假設(shè)?假設(shè)如何構(gòu)建?需要解決的問題?如果這些假設(shè)不同,會解決不同的問題嗎?想要解決的問題和結(jié)果之間有什么關(guān)系?以上這些子問題,對于決策過程異常重要。

假設(shè)訪問更多數(shù)據(jù)是決策者做出更好決策的關(guān)鍵,所以研究者希望喂給系統(tǒng)越多數(shù)據(jù),AI 越好的做出決策,擁有更少的負(fù)面影響。

在這一假設(shè)下,我們理所當(dāng)然的認(rèn)為:完美信息應(yīng)該自動改善決策過程??紤]到現(xiàn)實(shí),這一假設(shè)是錯(cuò)誤的。

例如,人工智能可以正確識別內(nèi)容,但基于該內(nèi)容做出的決策在很大程度上受到用戶和組織的規(guī)范和期望的影響。

顯然,當(dāng)團(tuán)隊(duì)做出決策時(shí),考慮到各個(gè)利益相關(guān)者及其激勵因素,改進(jìn)決策的最佳途徑就不再是獲取更多數(shù)據(jù),而是需要加強(qiáng)利益相關(guān)者之間的溝通。

這對于問題“從國家層面來看,為了提高 AI 的決策能力,是否需要花費(fèi)數(shù)十億美元來清理數(shù)據(jù)和增強(qiáng)數(shù)據(jù)傳感器?”有了更好的回答。

畢竟,美國國防部每年在員工身上花費(fèi) 11-150 億美元,以求他們將數(shù)據(jù)處理成某種形式。經(jīng)過數(shù)十年的投資、監(jiān)管和標(biāo)準(zhǔn)制定,我們今天與 1970 年時(shí)候的“計(jì)算機(jī)化的大腦(computerized brain)”提法相比,本質(zhì)上并沒提高多少。然而,隨著計(jì)算機(jī)越來越先進(jìn),人們也越來越沉迷數(shù)據(jù)。

數(shù)據(jù)驅(qū)動的脆弱性

談?wù)摂?shù)據(jù)質(zhì)量的方式具有誤導(dǎo)性。我們談到“干凈”數(shù)據(jù),就好像存在一種數(shù)據(jù)既準(zhǔn)確(且無偏差)又可重用的狀態(tài)。其實(shí),干凈與準(zhǔn)確不同,準(zhǔn)確與可操作又不同。而無論哪種類型的數(shù)據(jù)出現(xiàn)問題,都有可能阻礙 AI 模型的開發(fā),或者影響 AI 模型做決策。

數(shù)據(jù)出問題的方式有很多,例如:數(shù)據(jù)實(shí)際上不正確、已損壞或采用錯(cuò)誤格式。還有些更微妙的錯(cuò)誤:數(shù)據(jù)是在特定上下文中獲取的,但重用的時(shí)候不恰當(dāng);數(shù)據(jù)沒有標(biāo)準(zhǔn)化導(dǎo)致相同的事情,表達(dá)方式不一;對于模型來說數(shù)據(jù)處于錯(cuò)誤的粒度級別......

對于上述問題,僅使用單一數(shù)據(jù)源是無法解決的。如果有攻擊者試圖往模型、系統(tǒng)中注入“錯(cuò)誤”,那么這些問題更不可能解決了。

AI 雖然創(chuàng)造了新機(jī)會,但我們也不能忽略它的脆弱性。換句話說,AI 帶來新解決方案的同時(shí),也發(fā)明了新攻擊方法。例如 Deepfake、衛(wèi)星數(shù)據(jù)的“位置欺騙”等。這些“有毒”技術(shù)正在和“良善”技術(shù)一起進(jìn)步。

當(dāng)前的 AI 系統(tǒng)完全依賴數(shù)據(jù)質(zhì)量,雖然技術(shù)已經(jīng)比較成熟,但這種設(shè)計(jì)方案極易受到攻擊。因此在這種情況下,AI 系統(tǒng)必須被設(shè)計(jì)成能夠靈活應(yīng)對不良數(shù)據(jù)的模型。讓 AI“反脆弱”是一種抵御攻擊風(fēng)險(xiǎn)的方式。

什么是反脆弱人工智能?

[[417903]]

在系統(tǒng)思維中,“反脆弱”是一種設(shè)計(jì),不僅可以從故障中恢復(fù),而且在遇到故障時(shí)更加強(qiáng)大、更有效?;趯?shí)際改善決策的因素構(gòu)建 AI 系統(tǒng)將為反脆弱人工智能創(chuàng)造機(jī)會。

認(rèn)知科學(xué)的研究中提到,良好的決策是:主動闡明假設(shè)、構(gòu)建假設(shè)檢驗(yàn)驗(yàn)證這些假設(shè)以及在利益相關(guān)者之間建立清晰的溝通渠道的產(chǎn)物。

許多引發(fā)人為錯(cuò)誤的認(rèn)知偏差都是上述三方面出現(xiàn)問題的結(jié)果。例如沒有清楚地闡明假設(shè),就將解決方案應(yīng)用于不合適的環(huán)境條件;不測試假設(shè),就無法根據(jù)不斷變化的條件來調(diào)整正確的決策。

AI 很容易受到不良數(shù)據(jù)的影響,因?yàn)槲覀冞^分強(qiáng)調(diào)了它在分類和識別方面的應(yīng)用,而低估了它在建議和情境化方面的應(yīng)用。然而,決策型 AI 又非常容易被破壞。

設(shè)計(jì)反脆弱 AI 非常困難,因?yàn)閷⑺惴ǚ治龅慕Y(jié)果作為結(jié)論和作為建議,這兩者之間有很大的差別。而決策者,為了節(jié)省精力非常有可能一股腦的將 AI 輸出作為結(jié)論。這種想法,已經(jīng)在刑事司法和警務(wù)領(lǐng)域造成了災(zāi)難性的錯(cuò)誤。

那么在醫(yī)學(xué)中,為什么 AI 能夠提高決策質(zhì)量?因?yàn)?,許多診斷并沒有單一的正確答案,某種癥狀背后可能對應(yīng)多種疾病,到底患有哪種疾病,可能只是概率問題。臨床醫(yī)生會在頭腦中建立一個(gè)決策樹,其中包含他能想到的所有可能病因,并讓病人做排除某些可能病因的測試。因此,醫(yī)學(xué)診斷是一個(gè)“定義假設(shè)、檢驗(yàn)測試、進(jìn)一步縮小可能病因集”的循環(huán)過程,直到?jīng)Q策收斂。

這時(shí)候,AI 決策模型的作用是提示醫(yī)生將可能的疾病類型納入他的決策樹,所以盡管可能數(shù)據(jù)不佳,但患者的治療效果卻有所改善。目前,這種 AI 已經(jīng)在用于改善醫(yī)療專業(yè)人員之間的溝通和知識共享,或在關(guān)鍵時(shí)刻從患者那里獲得新的相關(guān)信息。

使用 AI 進(jìn)行決策的正確姿勢

在決定如何最好地利用人工智能時(shí),技術(shù)領(lǐng)導(dǎo)者需要首先考慮他們?nèi)绾味x需要解決的問題。如果 AI 是改善決策,那么 AI 應(yīng)該引導(dǎo)決策者進(jìn)行假設(shè)檢驗(yàn),而不是試圖超越專家。

當(dāng) AI 試圖勝過專家,它完全取決于接收到的數(shù)據(jù)的質(zhì)量,從而產(chǎn)生了一系列漏洞,攻擊者可以輕松地利用這些漏洞。

當(dāng)人工智能的目標(biāo)不是成為最好的頂級專家,而是加強(qiáng)和支持決策實(shí)踐時(shí),其對不良數(shù)據(jù)具有彈性并能夠具有反脆弱的功能。

但這樣的人工智不能做決定。相反,它幫助人們闡明決策背后的假設(shè),將這些假設(shè)傳達(dá)給其他利益相關(guān)者,并在與這些假設(shè)相關(guān)的條件發(fā)生重大變化時(shí)提醒決策者。

綜上,人工智能可以幫助決策者弄清楚什么狀態(tài)是可能的,或者在什么條件下它們是可能的。這樣的解決方案可以通過解決現(xiàn)有弱點(diǎn)來增強(qiáng)決策團(tuán)隊(duì)的整體能力,而不是因不良數(shù)據(jù)產(chǎn)生一些新的弱點(diǎn)。 

 

責(zé)任編輯:龐桂玉 來源: IT之家
相關(guān)推薦

2021-08-16 15:47:02

AI決策人工智能

2023-08-31 07:16:32

人工智能AI算力

2021-06-04 15:50:49

AI 數(shù)據(jù)人工智能

2021-08-12 10:44:05

漏洞網(wǎng)絡(luò)安全網(wǎng)絡(luò)攻擊

2024-07-25 12:35:33

2024-07-29 07:04:00

大模型AI訓(xùn)AI人工智能

2023-09-28 07:24:13

KOSMOS模型文檔

2024-02-26 12:34:52

模型數(shù)據(jù)決策模型

2024-10-30 12:21:18

2015-08-20 15:21:17

數(shù)據(jù)安全數(shù)據(jù)中心

2010-07-21 14:30:53

2024-01-16 19:46:55

反脆弱人工智能大數(shù)據(jù)

2012-07-16 10:06:08

搜狗王小川

2011-10-07 16:44:12

筆記本常見問題

2021-01-18 08:23:09

大數(shù)據(jù)AI人工智能

2024-03-13 10:29:39

2017-10-02 08:09:04

2022-04-11 13:25:48

人工智能

2020-03-27 15:18:45

漏洞bug開源

2025-03-24 06:40:00

特征工程機(jī)器學(xué)習(xí)模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號