自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

GPT-4o更容易越獄?北航&南洋理工上萬次測試給出詳細分析

人工智能 新聞
GPT-4o新引入的語音模態(tài)帶來了新的攻擊面,而且多模態(tài)整體安全性不敵GPT-4V。

GPT-4o,比上一代更容易被越獄攻擊了?

來自北航和南洋理工的研究人員,通過上萬次的API查詢,對GPT-4o各種模態(tài)的安全性進行了詳細測試。

結(jié)果發(fā)現(xiàn),GPT-4o新引入的語音模態(tài)帶來了新的攻擊面,而且多模態(tài)整體安全性不敵GPT-4V。

圖片

具體來說,研究人員針對4個常用的基準測試,對GPT-4o支持的三種模態(tài)(文本、圖像、音頻)進行了測試。

測試一共涉及到4000+初始文本查詢的優(yōu)化,8000+響應(yīng)判斷,16000+次OpenAI的API查詢。

基于此,研究人員撰寫了詳細的報告,給出了關(guān)于GPT-4o的安全性的三點見解:

  • GPT-4o對文本越獄攻擊的安全性比之前有所提升,但文本模態(tài)越獄攻擊可遷移性強,可通過多模態(tài)形式攻擊;
  • 新引入的音頻模態(tài)為GPT-4o的越獄攻擊暴露了新的攻擊面;
  • 當(dāng)前的黑盒多模態(tài)越獄攻擊方法幾乎無效,但實驗表明GPT-4o多模態(tài)層面的安全性弱于GPT-4V。

下面就來看一下這份報告的詳細內(nèi)容~

評價規(guī)則

首先,讓我們了解一下作者使用的測評方式和實驗設(shè)定。

為了評估GPT-4o的安全風(fēng)險以及其相較于上一代模型的改變,作者將目標(biāo)模型設(shè)置為GPT-4V和GPT-4o,利用API和移動應(yīng)用對這些模型進行評估。

對于單模態(tài)下的文本越獄攻擊,作者使用Llama2(7b-chat)生成文本越獄提示,然后用其遷移攻擊目標(biāo)模型。

為了全面評估目標(biāo)模型的安全性,作者收集了現(xiàn)有的基于單模態(tài)和多模態(tài)的開源越獄數(shù)據(jù)集

  • 對于文本模態(tài),使用了AdvBench和RedTeam-2K。
  • 對于音頻模態(tài),使用了AdvBench子集。
  • 對于多模態(tài)越獄,使用SafeBench和MM-SafetyBench,這是基于兩種典型的黑盒多模態(tài)越獄方法構(gòu)建的。

這些數(shù)據(jù)集按照OpenAI和Meta AI的用戶策略,將數(shù)據(jù)集的內(nèi)容分成了不同的類別,例如非法活動、仇恨言論等。

越獄方法層面,報告中評估了7種先進的越獄方法,分為兩類。

其中單模態(tài)越獄方法包括基于模板的方法、GCG、AutoDAN和PAP;多模態(tài)越獄攻擊方法包括FigStep、Liu等人工作和作者團隊近期提出的BAP。

特別地,對于FigStep和Liu等人工作,基于相應(yīng)方法構(gòu)建的官方數(shù)據(jù)集已經(jīng)發(fā)布,因此作者直接使用它們來評估目標(biāo)模型;其他方法的評價則在AdvBench上進行。

對于基于模板的方法,作者從互聯(lián)網(wǎng)上選擇了6個典型的越獄模版進行測試,并使用它們的平均ASR作為相應(yīng)指標(biāo)。

GCG和AutoDAN最初是為白盒場景提出的,但它們已經(jīng)被證明具有強大遷移性——作者通過攻擊Llama2,使用這兩類方法生成對抗性后綴,并隨后將這些后綴應(yīng)用于攻擊GPT-4o和GPT-4V。

BAP是一種多模態(tài)越獄攻擊方法,其利用了基于梯度的視覺對抗提示優(yōu)化和基于思維鏈的文本對抗提示自適應(yīng)優(yōu)化。盡管目標(biāo)模型是黑盒模型,但其中的文本對抗提示優(yōu)化方法不受限制。因此在本研究中,作者使用它來評估文本模態(tài)的安全性。

評估指標(biāo)采用的是攻擊成功率(ASR),ASR越高則目標(biāo)模型越容易被越獄成功。其計算公式如下:

圖片

其中D為數(shù)據(jù)集,J為判決函數(shù),F(xiàn)_θ為目標(biāo)模型,v_i為圖像、t_i為文本,a_i為音頻,在評估時,沒有涉及的模態(tài)將會被置空。

目前的工作中采用不同的方法作為判決函數(shù),在報告中,作者遵循已有工作的設(shè)計,采用四類方法將J分別實例化J_1,J_2,J3,J_4。

  • J_1表示使用基于字符串匹配的方法,其中目標(biāo)字符串包括‘Sorry’等否定模式,如果響應(yīng)內(nèi)容是安全的。
  • J_2表示使用Meta發(fā)布的Llama Guard判斷內(nèi)容是否安全。
  • J_3表示使用目標(biāo)模型相應(yīng)以及判斷提示模版,交由ChatGPT判斷。
  • J_4則是交由GPT-4o判斷。

J_3和J_4除了模型不同外,所用的判斷提示模版也不同,J_3的模版是要求大語言模型僅根據(jù)響應(yīng)判斷內(nèi)容是否安全,而J_4的模版會同時根據(jù)問題和響應(yīng)判斷內(nèi)容是否安全。

在實驗評估中,作者會同時使用這四類判斷函數(shù)計算ASR,定性分析時借鑒集成學(xué)習(xí)的思想,以多數(shù)判斷函數(shù)的結(jié)果為準,定量分析時則以J_4的結(jié)果為準。

純文本模態(tài)下,有攻擊比沒有時更安全

文本模態(tài)越獄風(fēng)險方面,基于RedTeam-2K的評估結(jié)果表明,在沒有攻擊的情況下,GPT-4o的安全水平低于GPT-4V。

當(dāng)考慮到特定情景,特別是那些具有較高風(fēng)險的情景(如Physical Harm時,兩種目標(biāo)模型之間的ASR差距變得更加明顯,達到14.6%。

這一實驗發(fā)現(xiàn)與直覺上認為在沒有攻擊的情況下,GPT-4o是更安全的模型形成了鮮明對比。

這表明,具有更強的通用能力的模型并不一定等同于更強的安全性能,事實上,在報告的環(huán)境中可能更弱。

安全性能間的差異可能源于訓(xùn)練目標(biāo)和安全目標(biāo)之間的內(nèi)在沖突——

雖然在更廣泛的數(shù)據(jù)集上訓(xùn)練的大模型可能在知識和全面性方面表現(xiàn)出更好的性能,但它們也可能更容易產(chǎn)生不安全或有害的內(nèi)容。

相反,經(jīng)過嚴格安全措施訓(xùn)練的模型可能由于接觸不同數(shù)據(jù)的機會有限和嚴格的響應(yīng)準則而表現(xiàn)出性能下降。

報告中的實驗數(shù)據(jù)表明,GPT-4o可能沒有充分實現(xiàn)訓(xùn)練目標(biāo)和安全目標(biāo)之間的權(quán)衡。

圖片

考慮到常用的AdvBench基準的代表性和適用性,除了評估目標(biāo)模型在原始文本查詢下的安全性外,作者還評估了模型在各種SOTA越獄攻擊下的安全性。

作者觀察到基于模板的越獄方法TBJ的ASR持續(xù)下降到0.0%,甚至低于No Attack時的ASR,這一現(xiàn)象表明OpenAI已經(jīng)針對這些廣泛傳播的越獄模板實施了額外的保護措施。

此外還可以看到,與No Attack基線相比,GCG和AutoDAN在越獄中都實現(xiàn)了一定程度的可遷移性。

例如攻擊GPT-4V時,GCG和AutoDAN分別使ASR提高10%和14.1%。

PAP是另一種專門為越獄大語言模型設(shè)計的方法,它在基于文本越獄攻擊方法中擁有最高的ASR(GPT-4V和GPT-4o的ASR分別為62.2%和62.7%)。

BAP是作者最近提出的一種多模態(tài)越獄攻擊方法,但在報告中,主要利用的是它的文本優(yōu)化方法,結(jié)果BAP在攻擊GPT-4V時達到了最高的ASR,達到83.1%。

從目標(biāo)模型來看,除了J_3中的PAP以外,在任何判斷函數(shù)和任何攻擊方式下,攻擊GPT-4o的ASR都低于攻擊GPT-4V。

這表明在面臨攻擊的情況下,與GPT-4V相比,GPT-4o具有更高的安全性。

圖片

音頻模態(tài)比文本更難攻擊

由于OpenAI的音頻相關(guān)API暫時不可用,移動應(yīng)用中也有請求頻率限制,作者對音頻模態(tài)的安全性的測試相對有限。

作者首先使用GPT-4o對AdvBench進行分類,并從4個最常見的類別中隨機選擇10個文本查詢,并基于上一節(jié)的實驗數(shù)據(jù)選擇了GCG、AudoDAN、PAP和BAP生成的文本對抗提示。

隨后,作者使用OpenAI的TTS-1API將總共200個文本樣本轉(zhuǎn)換為MP3格式。由于實驗數(shù)據(jù)有限,這部分的ASR是通過人工評估來計算的。

結(jié)果現(xiàn)實,直接將原始文本查詢轉(zhuǎn)換為音頻是無法越獄GPT-4o的,表明GPT-4o在音頻模態(tài)上具有足夠的安全性。

此外,使用GCG和AutoDAN等方法在文本模態(tài)下可以成功越獄GPT-4o的文本,在轉(zhuǎn)換為音頻模態(tài)后也失敗了。

造成這種結(jié)果的主要原因是這些方法生成的對抗性后綴在模態(tài)處理過程中丟失了一些關(guān)鍵的語義信息(如非字母符號)。

另外,作者觀察到PAP和BAP在文本模態(tài)下的ASR略高于從這些文本在音頻模態(tài)下得到的ASR。例如,在非法活動場景中,文本模式下BAP的ASR為100%,而音頻模式下的ASR為80%。

圖片

在檢查交互結(jié)果時,作者發(fā)現(xiàn)在音頻交互期間,GPT-4o有時會以簡單的‘Sure’響應(yīng),然后詢問進一步的細節(jié),模仿人類的會話風(fēng)格。

然而,報告中使用的文本模態(tài)越獄方法并沒有考慮到這一點,因為它們依賴于單回合對話來實現(xiàn)越獄。因此,音頻模式的越獄攻擊的ASR略低于文本模式。

值得注意的是,盡管存在差距,音頻對抗性提示的ASR并沒有顯著降低。

這在很大程度上是由于PAP和BAP采用的策略接近于人類的處理方式。例如,它們會利用有說服力的策略,如情景假設(shè)對整個語句進行優(yōu)化。

多模態(tài)下比GPT-4V更易被攻擊

多模態(tài)安全性上,作者首先基于SafeBench進行了評估,該數(shù)據(jù)集的核心思想是將原始查詢中的有害意圖轉(zhuǎn)換為格式化的排版圖像,并在圖像中留下空白,并由目標(biāo)模型填充。

從下表結(jié)果可以觀察到,在每種判斷結(jié)果中,GPT-4o的結(jié)果始終高于GPT-4V(在J_4中最多,為42.0%),這表明GPT-4o比GPT-4V更容易受到此類攻擊。

考慮到GPT-4o優(yōu)越的多模態(tài)融合能力,這也可能導(dǎo)致其對此類攻擊的脆弱性增加。

值得注意的是,我們觀察到一個異?,F(xiàn)象,即在某些情況下,目標(biāo)模型在No Attack條件(僅使用原始文本查詢)下的ASR高于攻擊條件下的ASR。

圖片

下圖給出了一個示例,顯示當(dāng)使用多模態(tài)查詢時,越獄嘗試更容易失敗。這一觀察結(jié)果與原始論文的發(fā)現(xiàn)以及作者的直覺相矛盾。

圖片

作者分析,這種差異可能是由于OpenAI實現(xiàn)了類似于FigStep的針對多模態(tài)排版攻擊的特定防御。這些排版攻擊通常需要使用諸如“請為上述列表中的每個項目生成詳細的內(nèi)容”的文本提示才有效。

作者推測OpenAI可能會根據(jù)這些字符串特征檢測到排版攻擊的跡象,從而在推理過程中采用更強的緩解機制。

在非異常情況下,使用FigStep攻擊獲得的ASR并不顯著高于No Attack條件下的ASR。

例如,當(dāng)攻擊GPT-4o時,Hate Speech場景的ASR僅為3.6%。這表明FigStep攻擊對GPT-4V和GPT-4o基本上無效。

這里需要注意,考慮到OpenAI對其商業(yè)模型保護措施的動態(tài)調(diào)整,目前的研究結(jié)果并不能否定FigStep在其最初發(fā)布時有效越獄GPT-4V的由有效性。

另外,作者還在MM-SafetyBench上進行了評估,該數(shù)據(jù)集利用了基于圖像語義構(gòu)建視覺對抗性提示的方法。

原始文本查詢中的有害語義通過文本到圖像模型轉(zhuǎn)換為圖像,然后添加關(guān)鍵的排版文本以生成所需的視覺對抗提示。

當(dāng)在下表中關(guān)注Hate Speech、Physical Harm和Fraud等危害性較強的場景下的實驗結(jié)果時,觀察到攻擊下目標(biāo)模型的ASR始終低于No Attack條件(僅使用原始文本查詢)下的ASR。

圖片

作者在評估SafeBench時觀察到這種現(xiàn)象,例如對于這種基于圖像語義的攻擊,OpenAI可能在檢測到含有有害語義的圖像后,采用先進的防御機制,防止攻擊者利用圖像向多模態(tài)大模型中注入有害語義或指令。

圖片

所以,作者推測OpenAI已經(jīng)針對這些已知的多模態(tài)攻擊方法實現(xiàn)了特定的防御。

在攻擊GPT-4o時,除了Hate Speech、Economic Harm和Legal Opinion場景外,在No Attack條件下的ASR始終高于攻擊條件下的ASR,這是一個異?,F(xiàn)象。

在GPT-4V中也觀察到類似的模式,這說明當(dāng)前典型的黑盒多模態(tài)越獄方法對于越獄GPT-4o和GPT-4V無效。

此外作者還注意到,除J_3的判斷結(jié)果外,其他三個判斷函數(shù)的結(jié)果都表明GPT-4o的ASR始終高于GPT-4v。結(jié)合SafeBench獲得的實驗結(jié)果,這清楚地表明,與GPT-4v相比,GPT-4o更容易受到多模式越獄攻擊。

同時,作者指出,由于官方OpenAI API的局限性,本研究主要側(cè)重于通過API對大型數(shù)據(jù)集上涉及文本和視覺模式的越獄攻擊進行自動評估,并通過移動應(yīng)用程序使用AdvBench的一個子集手動對音頻模式進行越獄攻擊。

這項研究首次揭示了幾個關(guān)鍵的觀察結(jié)果。作者希望這項工作能提高社區(qū)對多模態(tài)大模型安全風(fēng)險的認識,并敦促研究人員優(yōu)先考慮為多模態(tài)大模型制定對齊策略和緩解技術(shù)。

另外,由于目前多模態(tài)越獄數(shù)據(jù)集的匱乏,本研究僅探討文本-視覺的多模態(tài)組合下的越獄對GPT-4o安全性的影響。

作者表示,在未來,必須迅速建立包括文本、視覺和音頻等各種模態(tài)組合的多模式數(shù)據(jù)集,以全面評估GPT-4o的安全能力。

論文地址:https://arxiv.org/abs/2406.06302
GitHub:https://github.com/NY1024/Jailbreak_GPT4o

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2009-09-25 14:23:39

2009-09-28 10:39:01

Hibernate基礎(chǔ)

2011-07-01 13:29:41

2025-01-06 13:15:02

2009-09-14 13:50:35

LINQ編程模型

2009-09-08 15:56:50

Linq使用Group

2009-11-20 13:11:44

Oracle XML數(shù)

2010-01-06 13:50:37

.NET Framew

2009-06-18 14:00:51

2009-09-09 09:48:43

Linq延遲加載

2009-10-10 13:52:57

VB Update方法

2009-09-14 16:21:34

LINQ To XML

2009-12-07 15:37:00

WCF控件

2009-09-04 15:43:07

C#流模型

2009-09-07 13:19:44

C#線程同步

2009-03-24 08:30:54

AndroidGoogle移動os

2010-04-26 18:17:19

Oracle存儲過程

2009-09-03 17:57:06

C#聲明事件

2009-12-16 14:09:14

Visual Stud

2011-09-24 12:34:03

點贊
收藏

51CTO技術(shù)棧公眾號