OpenAI首次公開前沿大模型安全:基礎(chǔ)架構(gòu)、保護(hù)措施等
6月6日凌晨,OpenAI在官網(wǎng)公開了前沿大模型的安全策略,包括基礎(chǔ)架構(gòu)、保護(hù)措施、敏感數(shù)據(jù)存儲(chǔ)、開發(fā)人員訪問管理等。
這也是OpenAI首次系統(tǒng)性的公布大模型開發(fā)安全方面的高級(jí)細(xì)節(jié),讓外界深度了解其模型的開發(fā)流程,同時(shí)可為開發(fā)者在研究最新的前沿大模型提供技術(shù)借鑒。
下面「AIGC開放社區(qū)」就為大家解讀一下主要內(nèi)容。
基礎(chǔ)研究架構(gòu)
?
OpenAI的研究技術(shù)架構(gòu)建立在微軟的Azure云服務(wù)之上,并通過Kubernetes(谷歌開源的容器平臺(tái))進(jìn)行輔助。
OpenAI的身份基礎(chǔ)基于 Azure Entra ID(前身為 Azure Active Directory)。
Azure Entra ID 與內(nèi)部身份驗(yàn)證和授權(quán)框架及控制集成。Azure Entra ID 可以對(duì)會(huì)話創(chuàng)建、身份驗(yàn)證tokens的使用和異常登錄檢測進(jìn)行基于風(fēng)險(xiǎn)的驗(yàn)證。這些功能是對(duì)內(nèi)部檢測工具的補(bǔ)充,有助于識(shí)別和阻止?jié)撛诎踩{。
Kubernetes安全方法
?
OpenAI主要使用Kubernetes 來協(xié)調(diào)和管理基礎(chǔ)設(shè)施中的工作負(fù)載。研究工作負(fù)載受到 Kubernetes基于角色的訪問控制(RBAC)策略的保護(hù),以遵守最小權(quán)限原則。
依靠現(xiàn)代技術(shù)為研究環(huán)境提供安全的網(wǎng)絡(luò)。網(wǎng)絡(luò)策略定義了工作負(fù)載與外部服務(wù)的通信方式。OpenAI會(huì)使用 "默認(rèn)拒絕"策略,并明確允許列出授權(quán)的外部通信路徑,并廣泛使用專用鏈路網(wǎng)絡(luò)路由,以消除通往互聯(lián)網(wǎng)的必要路由,并縮短允許列表。
對(duì)于一些風(fēng)險(xiǎn)較高的任務(wù),OpenAI會(huì)使用 gVisor(谷歌開源的沙箱環(huán)境)來解決,這是一種提供額外隔離的容器運(yùn)行環(huán)境。這種深度防御方法可確保強(qiáng)大的安全性和工作負(fù)載的高效管理。
敏感數(shù)據(jù)保護(hù)策略
?
OpenAI使用密鑰管理服務(wù)來存儲(chǔ)和管理,研究基礎(chǔ)設(shè)施中的敏感數(shù)據(jù),并使用基于角色的訪問控制來限制對(duì)數(shù)據(jù)的訪問,以便只有授權(quán)的工作負(fù)載和用戶才能檢索或修改它們。
所以,OpenAI建立了一項(xiàng)名為 AccessManager 的服務(wù),作為管理內(nèi)部授權(quán)和實(shí)現(xiàn)最小權(quán)限授權(quán)的可擴(kuò)展機(jī)制。該服務(wù)將訪問管理決策聯(lián)合給由策略定義的審批者。這樣就能確保授權(quán)人員在適當(dāng)?shù)谋O(jiān)督下做出訪問敏感資源(包括模型權(quán)重)的決定。
AccessManager策略可以定義為嚴(yán)格的或靈活的,根據(jù)相關(guān)資源進(jìn)行定制。請(qǐng)求并被授予對(duì)敏感資源的訪問權(quán)限,例如,包含模型權(quán)重的研究環(huán)境中的存儲(chǔ)需要多方批準(zhǔn)。
對(duì)于敏感數(shù)據(jù),AccessManager 授權(quán)授予設(shè)置為在指定時(shí)間段后過期,這意味著如果訪問者不續(xù)訂,權(quán)限將降低到非特權(quán)狀態(tài)。
OpenAI還將GPT-4 集成到 AccessManager 中,用于最小權(quán)限角色的分配工作。用戶可以在AccessManager 中搜索資源,該服務(wù)將使用OpenAI的模型來建議可以授予該資源訪問權(quán)限的角色。將用戶連接到更具體的角色可以消除對(duì)廣泛、通用和過于寬松的角色的依賴。
模型權(quán)重保護(hù)
?
模型權(quán)重的保護(hù)非常重要,可以避免OpenAI很多未公布和重要的基礎(chǔ)模型出現(xiàn)泄漏的情況,主要使用了以下保護(hù)策略:
授權(quán):對(duì)于包含敏感模型權(quán)重的研究存儲(chǔ)帳戶的訪問,需要多方批準(zhǔn)、授權(quán)。
訪問:用于研究模型權(quán)重的存儲(chǔ)資源專用鏈接到 OpenAI 的環(huán)境中,以減少對(duì)互聯(lián)網(wǎng)的暴露,并需要通過 Azure云進(jìn)行身份驗(yàn)證和授權(quán)才能訪問。
出口控制:OpenAI的研究環(huán)境使用網(wǎng)絡(luò)控制,僅允許出口流量流向特定的預(yù)定義互聯(lián)網(wǎng)目標(biāo)。流向不在允許列表中的主機(jī)的網(wǎng)絡(luò)流量將被拒絕。
模型審核與測試
?
OpenAI會(huì)通過內(nèi)部和外部“安全紅隊(duì)”來模擬惡意使用方,并測試對(duì)研究環(huán)境的安全控制。目前,OpenAI已經(jīng)與一家第三方的安全咨詢公司對(duì)其研究環(huán)境進(jìn)行了滲透測試。
此外,OpenAI正在探索研究環(huán)境的合規(guī)制度,來保證大模型的權(quán)重安全等問題。OpenAI還在評(píng)估現(xiàn)有的安全標(biāo)準(zhǔn)以及專門用于保護(hù)AI技術(shù)的自定義控制措施。
OpenAI為什么頻繁公布大模型安全
?
其實(shí),你要是經(jīng)??碠penAI的blog就能發(fā)現(xiàn),最近幾個(gè)月除了發(fā)布新產(chǎn)品之外,關(guān)于AI模型安全的介紹與講解非常多。主要是因?yàn)镺penAI受到的安全壓力非常大。
上個(gè)月OpenAI的主要安全負(fù)責(zé)人Ilya Sutskever、Jan Leike相繼辭職,并且Jan還在社交平臺(tái)公開吐槽OpenAI不重視產(chǎn)品的安全,可能存在很大的潛在風(fēng)險(xiǎn)。
昨天,11名OpenAI現(xiàn)役和前員工發(fā)布了一封公開聯(lián)名信,主要警告前沿AI模型可能會(huì)帶來很大的風(fēng)險(xiǎn)。
例如,生成錯(cuò)誤的內(nèi)容、人為操控、不平等進(jìn)一步加劇等,并且可能會(huì)出現(xiàn)失控的局面對(duì)社會(huì)造成巨大傷害。
他們希望通過這封聯(lián)名信,呼吁全球參與大模型的政府架構(gòu)、大型企業(yè)、科研人員可以指定安全、可持續(xù)的監(jiān)督條例和規(guī)則,防止人類在探索AGI(通用人工智能)的道路上發(fā)生不幸的意外。
他們呼吁先進(jìn)的AI模型企業(yè)、學(xué)術(shù)機(jī)構(gòu)應(yīng)該遵循以下4項(xiàng)原則,「AIGC開放社區(qū)」會(huì)為大家做一個(gè)簡單直觀的解讀。
1、組織不會(huì)簽訂或執(zhí)行任何禁止或批評(píng)AI模型相關(guān)問題的協(xié)議,也不會(huì)通過阻礙任何既得經(jīng)濟(jì)利益對(duì)風(fēng)險(xiǎn)相關(guān)批評(píng)進(jìn)行報(bào)復(fù)。
簡單來說,就是希望企業(yè)、政務(wù)機(jī)構(gòu)支持監(jiān)管條例,不要嫌棄、惡意對(duì)待提出監(jiān)管條例的人。
2、公司將為在職員工和前員工向公司董事會(huì)、監(jiān)管機(jī)構(gòu),以及具有相關(guān)專業(yè)知識(shí)的適當(dāng)獨(dú)立組織提出與風(fēng)險(xiǎn)有關(guān)的疑慮提供可核實(shí)的匿名程序。
這個(gè)就是希望可以如實(shí)的向上匯報(bào)AI模型的進(jìn)程和存在的風(fēng)險(xiǎn),不要有瞞報(bào)的情況出現(xiàn),例如,OpenAI就因?yàn)檫@個(gè)事情罷免過他們的CEO。
3、組織應(yīng)該支持公開批評(píng)的文化,允許現(xiàn)任和前任員工向公眾、公司董事會(huì)、監(jiān)管機(jī)構(gòu)或具有相關(guān)專業(yè)知識(shí)的適當(dāng)獨(dú)立組織,提出與其技術(shù)有關(guān)的風(fēng)險(xiǎn)問題,只要商業(yè)秘密和其他知識(shí)產(chǎn)權(quán)利益得到適當(dāng)保護(hù)即可。
就是說如果AI模型確實(shí)存在風(fēng)險(xiǎn),你應(yīng)該允許員工在公開的社交平臺(tái)向大眾說明真實(shí)情況,而不是一味的隱瞞。OpenAI前幾天兩名非常重要的安全負(fù)責(zé)人離職了,其中一位在社交平臺(tái)吐槽OpenAI的安全監(jiān)管很差,并且引發(fā)了離職協(xié)議等惡性事件。
反正就是,員工離職了應(yīng)該有話語自由權(quán)不能遮遮掩掩的,有告知大眾真相的權(quán)利,但是涉及商業(yè)機(jī)密的事情不能說。
4、公司不會(huì)對(duì)AI項(xiàng)目失敗后,公開分享風(fēng)險(xiǎn)相關(guān)機(jī)密信息的現(xiàn)任和前任員工進(jìn)行報(bào)復(fù)。當(dāng)然,在報(bào)告項(xiàng)目風(fēng)險(xiǎn)時(shí)應(yīng)該極力的避開商業(yè)機(jī)密。
因此,一旦有了向公司董事會(huì)、監(jiān)管機(jī)構(gòu)和具有相關(guān)專業(yè)知識(shí)的適當(dāng)獨(dú)立組織匿名提出疑慮的適當(dāng)程序,同意最初應(yīng)通過此類程序提出疑慮。然而,只要這樣的程序還不存在,現(xiàn)任和前任員工就應(yīng)保留向公眾報(bào)告其疑慮的自由。
簡單來說,員工向大眾報(bào)告了AI項(xiàng)目確實(shí)存在的風(fēng)險(xiǎn),并且在說明的過程中避免了商業(yè)機(jī)密。公司是不能向爆料員工報(bào)復(fù)的,例如,之前的OpenAI的離職協(xié)議寫著,員工離職后不能吐槽其項(xiàng)目不然就拿不到股權(quán)等。
本次參與簽名的有Jacob Hilton、Daniel Kokotajlo等7名前OpenAI員工,還有4名現(xiàn)役員工沒有公開姓名,估計(jì)怕被OpenAI知道處罰他們。
本文轉(zhuǎn)自 AIGC開放社區(qū) ,作者:AIGC開放社區(qū)
