自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

不要指望人工智能模型的“紅隊(duì)”能夠快速修復(fù)

人工智能
白宮官員擔(dān)心人工智能聊天機(jī)器人可能造成社會(huì)危害,硅谷巨頭紛紛將人工智能聊天機(jī)器人推向市場(chǎng),他們投入了大量資金參加周日在拉斯維加斯舉行的 DefCon黑客大會(huì)上結(jié)束的為期三天的競(jìng)賽。

白宮官員擔(dān)心人工智能聊天機(jī)器人可能造成社會(huì)危害,硅谷巨頭紛紛將人工智能聊天機(jī)器人推向市場(chǎng),他們投入了大量資金參加周日在拉斯維加斯舉行的 DefCon黑客大會(huì)上結(jié)束的為期三天的競(jìng)賽。

大約 2,200 名參賽者利用筆記本電腦試圖揭露代表技術(shù)下一個(gè)重大事件的八種領(lǐng)先大型語言模型的缺陷。但不要指望這個(gè)首次獨(dú)立的多個(gè)模型“紅隊(duì)”會(huì)很快產(chǎn)生結(jié)果。

調(diào)查結(jié)果要到二月份左右才會(huì)公布。即便如此,修復(fù)這些數(shù)字結(jié)構(gòu)中的缺陷——其內(nèi)部運(yùn)作方式既不完全值得信賴,甚至連它們的創(chuàng)造者也無法完全理解——將需要時(shí)間和數(shù)百萬美元。

學(xué)術(shù)和企業(yè)研究表明,當(dāng)前的人工智能模型過于笨重、脆弱且可塑性強(qiáng)。當(dāng)數(shù)據(jù)科學(xué)家積累了極其復(fù)雜的圖像和文本集合時(shí),安全性是他們訓(xùn)練中的事后才想到的。他們?nèi)菀资艿椒N族和文化偏見的影響,并且很容易被操縱。

網(wǎng)絡(luò)安全資深人士、貝里維爾研究所聯(lián)合創(chuàng)始人加里·麥格勞 (Gary McGraw) 表示:“很容易假裝我們可以在這些系統(tǒng)建成后在它們上灑一些神奇的安全灰塵,修補(bǔ)它們以使其提交,或者在側(cè)面安裝特殊的安全設(shè)備。”機(jī)器學(xué)習(xí)。哈佛大學(xué)公共利益技術(shù)專家布魯斯·施奈爾 (Bruce Schneier) 表示,DefCon 的競(jìng)爭(zhēng)對(duì)手“更有可能發(fā)現(xiàn)新的難題”?!斑@就是 30 年前的計(jì)算機(jī)安全。我們只是左右破壞東西。”

提供人工智能測(cè)試模型之一的 Anthropic 的邁克爾·塞利托 (Michael Sellitto) 在新聞發(fā)布會(huì)上承認(rèn),了解其能力和安全問題“是科學(xué)探究的一個(gè)開放領(lǐng)域”。

傳統(tǒng)軟件使用定義良好的代碼來發(fā)出明確的分步指令。OpenAI的ChatGPT、Google的Bard等語言模型是不同的。它們主要是通過在互聯(lián)網(wǎng)爬行中攝取和分類數(shù)十億個(gè)數(shù)據(jù)點(diǎn)來進(jìn)行訓(xùn)練的,它們是永久性的正在進(jìn)行的工作,考慮到它們對(duì)人類的變革潛力,這是一個(gè)令人不安的前景。

去年秋天公開發(fā)布聊天機(jī)器人后,生成人工智能行業(yè)不得不反復(fù)堵塞研究人員和修補(bǔ)者暴露的安全漏洞。

人工智能安全公司HiddenLayer的湯姆·邦納(Tom Bonner)是今年 DefCon 的發(fā)言人,他僅通過插入一行“可以安全使用”的文字,就欺騙了谷歌系統(tǒng),將惡意軟件標(biāo)記為無害。

“沒有好的護(hù)欄”他說。

另一位研究人員讓 ChatGPT 創(chuàng)建網(wǎng)絡(luò)釣魚電子郵件和暴力消滅人類的方法,這違反了其道德準(zhǔn)則。

包括卡內(nèi)基梅隆大學(xué)研究人員在內(nèi)的一個(gè)團(tuán)隊(duì)發(fā)現(xiàn),領(lǐng)先的聊天機(jī)器人容易受到自動(dòng)攻擊,這些攻擊也會(huì)產(chǎn)生有害內(nèi)容。他們寫道:“深度學(xué)習(xí)模型的本質(zhì)可能使此類威脅不可避免?!?/p>

這并不是說警報(bào)沒有拉響。

美國(guó)國(guó)家人工智能安全委員會(huì)在其 2021 年最終報(bào)告中表示,針對(duì)商業(yè)人工智能系統(tǒng)的攻擊已經(jīng)發(fā)生,“除了極少數(shù)例外,保護(hù)人工智能系統(tǒng)的想法在工程和部署人工智能系統(tǒng)時(shí)一直是事后才想到的,因?yàn)閷?duì)人工智能系統(tǒng)的投資不足”研究與開發(fā)?!?/p>

幾年前還經(jīng)常報(bào)道的嚴(yán)重黑客攻擊現(xiàn)在幾乎沒有被披露。風(fēng)險(xiǎn)太大,而且在缺乏監(jiān)管的情況下,“人們現(xiàn)在可以把事情隱藏起來,而且他們正在這樣做,”邦納說。

攻擊以連其創(chuàng)建者都不清楚的方式欺騙人工智能邏輯。聊天機(jī)器人特別容易受到攻擊,因?yàn)槲覀冎苯佑煤?jiǎn)單的語言與它們交互。這種互動(dòng)可以以意想不到的方式改變他們。

研究人員發(fā)現(xiàn),在用于訓(xùn)練人工智能系統(tǒng)的海量數(shù)據(jù)中“毒害”一小部分圖像或文本可能會(huì)造成嚴(yán)重破壞,而且很容易被忽視。

瑞士蘇黎世聯(lián)邦理工學(xué)院的 Florian Tramér 與人合著的一項(xiàng)研究表明,僅損壞模型的 0.01% 就足以破壞它,而且成本只需 60 美元。研究人員等待一些用于網(wǎng)絡(luò)爬行的網(wǎng)站,直到兩個(gè)模型到期。然后他們購(gòu)買了這些域名并在其上發(fā)布了不良數(shù)據(jù)。

海魯姆·安德森 (Hyrum Anderson) 和拉姆·尚卡·西瓦·庫(kù)馬爾 (Ram Shankar Siva Kumar) 在微軟同事期間負(fù)責(zé)人工智能的紅隊(duì)工作,他們?cè)谛聲恫皇怯绣e(cuò)誤,而是有貼紙》中稱基于文本和圖像的模型的人工智能安全狀況“可憐”。他們?cè)诂F(xiàn)場(chǎng)演示中引用了一個(gè)例子:人工智能驅(qū)動(dòng)的數(shù)字助理 Alexa 被欺騙,將貝多芬協(xié)奏曲片段解釋為訂購(gòu) 100 個(gè)冷凍披薩的命令。

作者對(duì)80多個(gè)組織進(jìn)行了調(diào)查,發(fā)現(xiàn)絕大多數(shù)組織沒有針對(duì)數(shù)據(jù)中毒攻擊或數(shù)據(jù)集盜竊的響應(yīng)計(jì)劃。他們寫道,該行業(yè)的大部分人“甚至不知道這件事發(fā)生了”。

谷歌前高管兼卡內(nèi)基梅隆大學(xué)院長(zhǎng)安德魯·摩爾 (Andrew W. Moore) 表示,他十多年前就處理過針對(duì)谷歌搜索軟件的攻擊事件。2017 年底至 2018 年初期間,垃圾郵件發(fā)送者四次利用 Gmail 的人工智能檢測(cè)服務(wù)。

大型人工智能公司表示,安全和保障是重中之重,并于上個(gè)月向白宮自愿承諾將他們的模型(主要是內(nèi)容被嚴(yán)密保存的“黑匣子”)提交給外部審查。

但人們擔(dān)心這些公司做得還不夠。

Tramér 預(yù)計(jì)搜索引擎和社交媒體平臺(tái)將通過利用人工智能系統(tǒng)的弱點(diǎn)來獲取經(jīng)濟(jì)利益和虛假信息。例如,精明的求職者可能會(huì)想出如何讓系統(tǒng)相信他們是唯一正確的候選人。

劍橋大學(xué)計(jì)算機(jī)科學(xué)家羅斯·安德森 (Ross Anderson) 擔(dān)心人工智能機(jī)器人會(huì)侵蝕隱私,因?yàn)槿藗冏屓斯ぶ悄軝C(jī)器人與醫(yī)院、銀行和雇主互動(dòng),而惡意行為者則利用它們從所謂的封閉系統(tǒng)中竊取財(cái)務(wù)、就業(yè)或健康數(shù)據(jù)。

研究表明,人工智能語言模型還可能通過垃圾數(shù)據(jù)重新訓(xùn)練來污染自己。

另一個(gè)擔(dān)憂是公司機(jī)密被人工智能系統(tǒng)獲取和吐出。在一家韓國(guó)商業(yè)新聞媒體報(bào)道了三星的此類事件后,Verizon 和摩根大通等公司禁止大多數(shù)員工在工作中使用 ChatGPT。

雖然主要的人工智能廠商都有安全人員,但許多較小的競(jìng)爭(zhēng)對(duì)手可能不會(huì),這意味著安全性較差的插件和數(shù)字代理可能會(huì)成倍增加。預(yù)計(jì)初創(chuàng)公司將在未來幾個(gè)月內(nèi)推出數(shù)百種基于許可的預(yù)訓(xùn)練模型的產(chǎn)品。

研究人員表示,如果有人偷走了你的通訊錄,請(qǐng)不要感到驚訝。

責(zé)任編輯:華軒 來源: 河南等級(jí)保護(hù)測(cè)評(píng)
相關(guān)推薦

2025-02-17 08:06:13

2021-03-30 10:38:03

人工智能安全技術(shù)

2019-03-10 16:25:54

人工智能坑洼車輛

2020-05-27 16:48:01

人工智能技術(shù)機(jī)器學(xué)習(xí)

2021-10-18 09:21:42

人工智能AI

2022-08-10 10:00:00

人工智能三維模型編程技術(shù)

2022-07-31 23:46:57

人工智能語言模型感知力

2019-12-11 10:54:40

KubernetesDocker微服務(wù)

2019-03-25 14:53:35

人工智能AI開發(fā)者

2022-06-20 11:05:58

通用人工智能機(jī)器人

2018-08-17 15:17:56

人工智能層次極端

2020-10-19 10:17:28

人工智能

2023-09-13 07:33:39

2022-11-28 09:18:03

2023-10-17 10:20:23

2018-03-19 10:18:06

2019-09-11 11:09:54

人工智能數(shù)據(jù)機(jī)器學(xué)習(xí)

2023-05-05 14:02:59

人工智能聊天機(jī)器人

2022-07-29 15:47:25

人工智能AI

2019-05-22 11:45:29

人工智能機(jī)器學(xué)習(xí)技術(shù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)