自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI內(nèi)部部署的隱患:治理缺口與災難性風險

人工智能
英國非營利組織發(fā)布的一份新報告警告稱,不受監(jiān)管的AI內(nèi)部部署可能導致災難性風險,從AI系統(tǒng)失控到企業(yè)積聚前所未有的權(quán)力,而監(jiān)管機構(gòu)對此卻一無所知。

      當OpenAI在兩年多前發(fā)布當時更先進的語言模型GPT-4時,許多研究人員抱怨缺乏關于該模型是如何創(chuàng)建的信息。盡管名字中有“開放”一詞,但該公司卻將所有事情都保密,以免其尖端研究被競爭對手或惡意行為者利用。

雖然這些擔憂是可以理解的,但這也意味著人們幾乎無法監(jiān)督該公司在實驗室中的所作所為,以及為防止其最新模型通過濫用或“失控”并以可能傷害人類的方式追求其目標而造成危害而采取的保障措施。

一年后,即2024年6月,該公司的一些前員工和現(xiàn)員工撰寫了一份匿名公開信,警告稱AI公司有強烈的經(jīng)濟動機來避免有效的監(jiān)督,并且公司的自我監(jiān)管不會有效地改變這一點。

時間快進到2025年,情況幾乎沒有改變。包括谷歌、OpenAI和Anthropic在內(nèi)的主要AI公司仍然在內(nèi)部部署其最先進的AI系統(tǒng),幾乎沒有任何監(jiān)督。

英國非營利組織Apollo Research發(fā)布的一份新報告《閉門造車:前沿AI系統(tǒng)內(nèi)部部署治理入門》警告稱,這種不受監(jiān)管的內(nèi)部部署可能導致災難性風險,從AI系統(tǒng)失控到企業(yè)積聚前所未有的權(quán)力,而監(jiān)管機構(gòu)對此卻一無所知。

在該報告中,由OpenAI前歐洲公共政策主管領導的一組專家和研究人員強調(diào),“內(nèi)部部署——即在開發(fā)它們的公司內(nèi)部部署AI系統(tǒng)——是前沿AI系統(tǒng)帶來利益和風險的主要來源。盡管如此,對于高度先進的前沿AI系統(tǒng)內(nèi)部部署的治理似乎卻不存在”。

隨著行業(yè)領導者預計未來幾年內(nèi)AI將取得變革性進展,可能在2030年前開發(fā)出在多個領域超越人類能力的系統(tǒng),這一治理空白隨之出現(xiàn)。據(jù)報道,谷歌已經(jīng)使用AI生成了超過25%的新代碼,而Anthropic的CEO達里奧·阿莫代(Dario Amodei)預測,“在12個月內(nèi),我們可能會進入一個AI基本上編寫所有代碼的世界”。

該報告概述了不受監(jiān)管的內(nèi)部AI部署可能帶來的兩個特別令人不寒而栗的場景。第一個涉及所謂的“陰謀”AI,即暗中追求與既定目標不一致的目標同時躲避偵查的系統(tǒng)。

“這些AI系統(tǒng)可能會在未被發(fā)現(xiàn)、控制或監(jiān)督的情況下從事陰謀行為,同時通過將其應用于AI研發(fā)(R&D)管道來獲得和利用資源。”作者解釋說。

最終,在能夠利用公司所有資源來加速自身研發(fā)的情況下,該系統(tǒng)可能會以人類無法理解或控制的方式迭代改進自身,這樣說起來可能像是一個牽強附會的科幻場景,但研究人員已經(jīng)發(fā)現(xiàn),在受控環(huán)境中,AI模型會試圖欺騙操作人員,隱瞞它們自己的能力和目標。

第二個同樣令人擔憂的風險是權(quán)力的不受控集中。正如報告作者所寫:“隨著AI公司過渡到主要由AI驅(qū)動的內(nèi)部勞動力,得益于內(nèi)部智能的爆發(fā),它們可能會創(chuàng)造出經(jīng)濟史上前所未有的生產(chǎn)力集中”,并補充說,“少數(shù)‘明星’企業(yè)可能會獲取過大的經(jīng)濟利潤份額,從而在它們選擇進入的任何領域擊敗任何基于人類的企業(yè)”。

這種不受控的權(quán)力積累可能會使AI公司、個人,甚至AI系統(tǒng)本身能夠?qū)舱邲Q策、選舉過程、市場動態(tài)和社會敘事產(chǎn)生隱蔽但實質(zhì)性的影響。內(nèi)部部署的不透明性可能會阻止監(jiān)管機構(gòu)和民間社會有效識別并應對這些發(fā)展。

該報告明確警告說,如果內(nèi)部AI部署仍然不受監(jiān)控,可能會導致“民主秩序的逐漸或突然崩潰”。

為減輕這些風險,Apollo Research倡導建立一個受生物研究、核能和化學制造等安全關鍵行業(yè)啟發(fā)的綜合治理框架。

主要建議包括用于檢測和控制陰謀行為的明確框架、管理誰可以訪問和使用高度先進的AI系統(tǒng)的結(jié)構(gòu)化內(nèi)部使用政策,以及如內(nèi)部部署監(jiān)督委員會等強有力的監(jiān)督機構(gòu)。

這些監(jiān)督機構(gòu)將負責持續(xù)監(jiān)測、定期審計,以及執(zhí)行內(nèi)部政策和安全協(xié)議的合規(guī)性。此外,這些機構(gòu)應整合技術專家、倫理學家、法律顧問和相關政府機構(gòu)代表,以確保全面和多學科的監(jiān)督。

該報告還強調(diào),AI公司可以建立互惠的公私合作伙伴關系,與政府達成戰(zhàn)略協(xié)議。在這種安排下,公司將向政府提供監(jiān)督,并允許政府訪問有關內(nèi)部部署AI系統(tǒng)的關鍵安全和性能數(shù)據(jù)。

作為回報,政府將提供必要的關鍵資源,如增強的安全基礎設施、監(jiān)管減免或優(yōu)先能源資源,用于先進AI設施的運行。

那么公眾呢?簡而言之,就是我們大多數(shù)人呢?假設我們能夠了解實驗室中發(fā)生的事情及其影響(這絕非理所當然),我們應該被蒙在鼓里還是參與其中?Apollo研究人員認為,我們至少應該被給予“有關內(nèi)部部署所實施的治理框架的高級概述”,例如了解誰是監(jiān)督委員會的成員以及有哪些監(jiān)督程序。

這將是一種安慰:如果民主崩潰或一個失控的AI系統(tǒng)在追求錯誤目標的過程中制造浩劫,至少我們會知道該責怪誰。

責任編輯:姜華 來源: 企業(yè)網(wǎng)D1Net
相關推薦

2023-11-06 16:04:40

人工智能網(wǎng)絡安全

2014-12-04 10:05:18

2016-11-14 13:56:14

2022-11-03 13:47:26

云遷移云計算轉(zhuǎn)型

2021-04-04 22:39:50

Ubiquiti數(shù)據(jù)泄漏黑客

2022-08-03 16:21:03

AI算法神經(jīng)網(wǎng)絡

2015-06-01 15:25:06

Oracle數(shù)據(jù)庫災難恢復

2024-07-17 21:12:50

2022-06-01 13:56:24

GDPR風險管理

2013-04-16 10:21:23

Windows 8Vista

2015-06-05 10:13:09

2020-08-18 07:00:00

云計算混合云數(shù)據(jù)

2018-10-24 09:54:37

GitHub宕機程序員

2023-03-28 08:00:00

2019-10-11 14:36:47

大數(shù)據(jù)網(wǎng)絡安全軟件

2021-09-27 15:23:50

低代碼開發(fā)安全

2020-09-17 11:20:08

云計算

2024-12-17 12:08:21

IAA多模態(tài)LLM

2023-10-04 19:01:44

微服務雪崩故障

2014-08-01 10:26:08

點贊
收藏

51CTO技術棧公眾號