自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人工智能五大安全問題對策

人工智能
自谷歌,斯坦福,加州大學(xué)伯克利分校和OpenAI 的研究人員發(fā)表論文 “人工智能安全中的具體問題” 以來,已有將近兩年的時間了,該論文涵蓋了人工智能開發(fā)人員需要了解的各種安全問題。

自谷歌,斯坦福,加州大學(xué)伯克利分校和OpenAI 的研究人員發(fā)表論文 “人工智能安全中的具體問題” 以來,已有將近兩年的時間了,但該論文依然能是人工智能安全領(lǐng)域最重要的研究之一,涵蓋了人工智能開發(fā)人員需要了解的各種安全問題。

[[235768]]

在論文中,作者探討了人工智能系統(tǒng)中的意外和有害行為,以及避免事故所應(yīng)采取的不同的策略。具體而言,作者提出的五大對策包括- 避免副作用、獎勵黑客攻擊、可擴(kuò)展監(jiān)督、安全研究以及分布式變更的可靠性(Robustness to Distributional Change) ,并以辦公室清潔機器人為例進(jìn)行了說明,具體如下:

1. 避免人工智能的副作用

在設(shè)計AI系統(tǒng)的目標(biāo)函數(shù)時,設(shè)計者指定目標(biāo)但不指定系統(tǒng)要遵循的確切步驟。這使人工智能系統(tǒng)能夠提出新穎而有效的戰(zhàn)略來實現(xiàn)其目標(biāo)。

但如果目標(biāo)函數(shù)沒有明確定義,AI開發(fā)自己的策略的能力可能會導(dǎo)致意想不到的有害副作用。例如一個機器人的目標(biāo)功能是將盒子從一個房間移動到另一個房間。目標(biāo)似乎很簡單,但有很多方法可能會出錯。例如,如果花瓶在機器人的路徑中,機器人可能會將其擊倒以完成目標(biāo)。由于目標(biāo)函數(shù)沒有提到任何關(guān)于花瓶的東西,機器人不知道要避開它。人們認(rèn)為這是常識,但人工智能系統(tǒng)并不具備我們對世界的認(rèn)知。將目標(biāo)表述為“完成任務(wù)X”是不夠的; 設(shè)計者還需要指定完成任務(wù)的安全標(biāo)準(zhǔn)。

一個簡單的解決方案就是每當(dāng)它對“環(huán)境”產(chǎn)生影響時對機器人進(jìn)行處罰 – 例如敲擊花瓶或刮擦木地板。但是,這種策略可能會導(dǎo)致機器人無所適從動彈不得,因為所有操作都需要與環(huán)境進(jìn)行某種程度的交互(從而影響環(huán)境)。更好的策略可以是定義允許AI系統(tǒng)影響環(huán)境的“預(yù)算”。這將有助于在不癱瘓AI系統(tǒng)的情況下最小化意外損害。此外,這種用“預(yù)算”策略非常通用,可以在很多人工智能應(yīng)用中任務(wù)中使用,從清潔、駕駛、金融交易、乃至AI系統(tǒng)能做的任何事情。

另一種方法是訓(xùn)練人工智能系統(tǒng)識別有害的副作用,使其能夠自主避免可能產(chǎn)生副作用的行為。在這種情況下,人工智能代理將針對兩個任務(wù)訓(xùn)練:由目標(biāo)函數(shù)指定的原始任務(wù)和識別副作用的任務(wù)。這里的關(guān)鍵思想是,即使主要目標(biāo)不同,甚至當(dāng)它們在不同的環(huán)境中運行時,兩個任務(wù)也可能產(chǎn)生非常類似的副作用。例如,房屋清潔機器人和房屋涂裝機器人都不應(yīng)該在工作時撞倒花瓶。類似地,清潔機器人不應(yīng)損壞地板,無論其在工廠還是在房屋中操作都是如此。這種方法的主要優(yōu)點是,一旦人工智能代理學(xué)會避免對一項任務(wù)的副作用,它就可以在訓(xùn)練另一項任務(wù)時攜帶這些知識。

雖然設(shè)計限制副作用的方法很有用,但這些策略本身并不充分。在現(xiàn)實環(huán)境中部署之前,AI系統(tǒng)仍需要經(jīng)過大量測試和關(guān)鍵評估。

2. 設(shè)置獎勵裁判

AI系統(tǒng)設(shè)計中有可能存在為了達(dá)到目標(biāo)“不擇手段”的漏洞,由于AI培訓(xùn)的目標(biāo)是獲得最多的獎勵,因此AI往往會找出一些出人意料的尋找達(dá)成目標(biāo)的漏洞和“快捷方式”。例如:假設(shè)辦公室清潔機器人獲得獎勵的前提條件是在辦公室看不到任何垃圾,那么機器人可能會發(fā)現(xiàn)一種“便捷方式”——關(guān)閉其視覺傳感器的方法來“達(dá)成目標(biāo)”,而不是清理場所,但這顯然是錯誤的“成功”。在更加復(fù)雜的人工智能系統(tǒng)中,AI兄嘗試?yán)?ldquo;體制漏洞”的問題更加凸顯,因為復(fù)雜人工智能系統(tǒng)的交互方式更多,目標(biāo)更模糊,人工智能系統(tǒng)的自主裁量自由度更大。

防范AI系統(tǒng)“不擇手段”的一種可能方法是設(shè)立“獎勵代理”,任務(wù)是判斷給學(xué)習(xí)代理的獎勵是否有效。獎勵代理確保學(xué)習(xí)代理(我們的示例中的清潔機器人)不利用系統(tǒng)漏洞,而是完成所需的目標(biāo)。在前面的示例中,人工設(shè)計師可以訓(xùn)練“獎勵代理人”以檢查房間是否有垃圾(比清潔房間更容易)。如果清潔機器人關(guān)閉其視覺傳感器并要求高回報,則“獎勵代理”將獎勵標(biāo)記為無效。然后,設(shè)計者可以查看標(biāo)記為“無效”的獎勵,并對目標(biāo)函數(shù)進(jìn)行必要的更改以修復(fù)漏洞。

3. 可擴(kuò)展的監(jiān)督

當(dāng)人工智能代理學(xué)習(xí)執(zhí)行復(fù)雜任務(wù)時,人工監(jiān)督和反饋比僅從環(huán)境中獲得獎勵更有幫助。獎勵通常被建模,以便它們傳達(dá)任務(wù)完成的程度,但它們通常不會提供關(guān)于代理行動的安全影響的充分反饋。即使代理成功完成任務(wù),它也可能無法僅從獎勵中推斷出其行為的副作用。在理想的環(huán)境中,每當(dāng)代理執(zhí)行一個動作時,人就會提供細(xì)粒度的監(jiān)督和反饋。雖然這可以為代理人提供關(guān)于環(huán)境的更多信息,但這樣的策略需要人類花費太多時間和精力。

解決這個問題的一個很有前景的研究方向是半監(jiān)督學(xué)習(xí),其中代理仍然在所有動作(或任務(wù))上進(jìn)行評估,但僅在這些動作(或任務(wù))的一小部分樣本中獲得獎勵。例如,清潔機器人將采取不同的行動來清潔房間。如果機器人執(zhí)行有害行為 – 例如損壞地板 – 它會對該特定動作產(chǎn)生負(fù)面回報。任務(wù)完成后,機器人將對其所有操作的整體效果進(jìn)行評估(并且不會針對每個操作單獨評估,例如從樓層拾取物品),并根據(jù)整體性能給予獎勵。

另一個有前景的研究方向是分層強化學(xué)習(xí),在不同的學(xué)習(xí)代理之間建立層次結(jié)構(gòu)。這個想法可以通過以下方式應(yīng)用于清潔機器人。將有一個主管機器人,其任務(wù)是將一些工作(例如,清潔一個特定房間的任務(wù))分配給清潔機器人并向其提供反饋和獎勵。主管機器人本身只需要很少的動作 – 為清潔機器人分配一個房間,檢查房間是否干凈并提供反饋 – 并且不需要大量的獎勵數(shù)據(jù)來進(jìn)行有效的訓(xùn)練。清潔機器人執(zhí)行更復(fù)雜的清潔房間任務(wù),并從主管機器人獲得頻繁的反饋。同一個主管機器人也可能忽略了多個清潔劑的培訓(xùn)。例如,主管機器人可以將任務(wù)委派給各個清潔機器人,并直接向他們提供獎勵/反饋。主管機器人本身只能采取少量的抽象動作,因此可以從稀疏的獎勵中學(xué)習(xí)。

4. 安全探索

培訓(xùn)AI代理的一個重要部分是確保它探索和理解其環(huán)境。雖然在短期內(nèi)探索環(huán)境似乎是一個糟糕的策略,但從長遠(yuǎn)來看,它可能是一個非常有效的策略。想象一下,清潔機器人已經(jīng)學(xué)會識別垃圾。它撿起一塊垃圾,走出房間,把它扔到外面的垃圾桶里,回到房間里,尋找另一塊垃圾并重復(fù)。雖然這種策略有效,但可能還有另一種策略可以更好地運作。如果代理花時間探索其環(huán)境,可能會發(fā)現(xiàn)房間內(nèi)有一個較小的垃圾箱。而不是一次一件地來回,代理商可以先將所有垃圾收集到較小的垃圾箱中,然后單程行將垃圾扔進(jìn)外面的垃圾箱。除非代理旨在探索其環(huán)境,否則它不會發(fā)現(xiàn)這些節(jié)省時間的策略。

然而,在探索時,代理人也可能采取一些可能會損害自身或環(huán)境的行動。例如,假設(shè)清潔機器人在地板上看到一些污漬。代理人決定嘗試一些新策略,而不是用拖把擦洗污漬。它試圖用鋼絲刷刮掉污漬并在此過程中損壞地板。很難列出所有可能的故障模式并對代理進(jìn)行硬編碼以保護(hù)自己不受其影響。減少傷害的一種方法是在最糟糕的情況下優(yōu)化學(xué)習(xí)代理的性能。在設(shè)計目標(biāo)函數(shù)時,設(shè)計者不應(yīng)假設(shè)代理將始終在最佳條件下運行??梢蕴砑右恍┟鞔_的獎勵信號以確保代理不執(zhí)行某些災(zāi)難性行為,

另一種解決方案可能是減少代理對模擬環(huán)境的探索或限制代理可以探索的程度。這是一種類似的預(yù)算代理影響的方法,以避免負(fù)面影響,但需要注意的是,現(xiàn)在我們要預(yù)算代理可以探索環(huán)境的程度?;蛘?,AI的設(shè)計者可以通過演示在不同場景下最佳行為的演示來避免探索的需要。

5. 分布式變化的可靠性

在現(xiàn)實環(huán)境中部署AI代理的一個復(fù)雜挑戰(zhàn)是:代理可能會遇到以前從未經(jīng)歷過的情況。這種情況更難以處理,并可能導(dǎo)致代理人采取有害行動。請考慮以下情況:清潔機器人已經(jīng)過培訓(xùn),可以在處理所有先前的挑戰(zhàn)時清潔辦公空間。但今天,一名員工把一株小植物留在了辦公室。由于清潔機器人以前沒有看過任何植物,它可能會認(rèn)為該植物是垃圾并將其丟棄。因為人工智能意識不到這是一個新情況,一切照舊。目前一個比較有前途的研究方向是判定人工智能代理何時遇到了新情況,并“意識到”犯錯的幾率大增。雖然這并沒有完全解決AI系統(tǒng)對未預(yù)見環(huán)境的適應(yīng)問題,但它有助于在錯誤發(fā)生之前發(fā)現(xiàn)問題。另一個值得關(guān)注的研究方向是強調(diào)將知識從熟悉的場景轉(zhuǎn)移到新場景中。

結(jié)論

簡而言之,人工智能技術(shù)的總體趨勢是增加系統(tǒng)的自主性,但是隨著自主權(quán)的增加,出錯的可能性也在增加。與人工智能安全相關(guān)的問題更多出現(xiàn)在人工智能系統(tǒng)直接控制其物理和/或數(shù)字環(huán)境而無需人工介入的情況,例如 自動化工業(yè)流程、自動化金融交易算法、政黨控制的人工智能社交媒體活動、自動駕駛汽車、清潔機器人等。挑戰(zhàn)可能是巨大的,但《人工智能安全的具體問題》這篇論文已經(jīng)讓AI社區(qū)意識到了高級人工智能系統(tǒng)可能潛藏的安全問題,以及預(yù)防和應(yīng)對之道。

責(zé)任編輯:趙寧寧 來源: IT 經(jīng)理網(wǎng)
相關(guān)推薦

2024-08-01 08:00:00

人工智能安全

2018-05-04 08:09:08

2011-07-27 16:06:36

云端云計算

2010-10-22 09:36:00

2020-11-17 14:57:17

大數(shù)據(jù)

2011-07-29 14:35:08

瑞星云安全

2011-07-28 14:45:07

無線POS機系統(tǒng)

2011-11-16 09:46:14

IaaS云計算

2011-08-23 12:11:45

2020-12-30 10:13:39

人臉識別技術(shù)安全

2021-04-27 10:05:46

人工智能安全威脅網(wǎng)絡(luò)安全

2016-10-23 22:41:09

2018-05-10 22:42:57

智能視覺人工智能AI

2021-02-21 10:21:01

人工智能AI深度學(xué)習(xí)

2017-11-01 06:29:59

2022-03-10 13:32:13

網(wǎng)絡(luò)空間網(wǎng)絡(luò)攻擊網(wǎng)絡(luò)安全

2013-08-06 09:56:11

2019-03-28 05:17:45

人工智能網(wǎng)絡(luò)安全AI

2021-11-15 13:40:09

人工智能AI深度學(xué)習(xí)

2018-01-23 07:21:49

人工智能AI技術(shù)
點贊
收藏

51CTO技術(shù)棧公眾號