自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

武大等發(fā)布大視覺模型最新安全綜述:全面分類攻擊策略、防御機(jī)制和評估方法

人工智能 新聞
武漢大學(xué)等發(fā)布了一篇大型視覺語言模型(LVLMs)安全性的綜述論文,提出了一個(gè)系統(tǒng)性的安全分類框架,涵蓋攻擊、防御和評估,并對最新模型DeepSeek Janus-Pro進(jìn)行了安全性測試,發(fā)現(xiàn)其在安全性上存在明顯短板。

隨著GPT-4o與Qwen-VL等模型的視覺理解和多模態(tài)生成能力逐漸打破眾人認(rèn)知,大型視覺語言模型(LVLMs)正以前所未有的速度重塑AI世界,這些能夠理解視覺信息并生成自然語言響應(yīng)的智能系統(tǒng),已在醫(yī)療診斷、自動駕駛、金融風(fēng)控等關(guān)鍵領(lǐng)域嶄露頭角。

然而,當(dāng)研究者僅用幾百美元就能突破頂級模型的安全防線、簡單的對抗噪聲圖片就能讓模型輸出危險(xiǎn)內(nèi)容,我們是否該感到擔(dān)心?

近期,武漢大學(xué)、中國科學(xué)技術(shù)大學(xué)和南洋理工大學(xué)的研究團(tuán)隊(duì)發(fā)布了一篇綜述,系統(tǒng)性總結(jié)了LVLMs在安全性上的挑戰(zhàn),并提出了全面而系統(tǒng)的安全分類框架。

圖片

論文地址:https://arxiv.org/abs/2502.14881

項(xiàng)目主頁:https://github.com/XuankunRong/Awesome-LVLM-Safety

與以往的零散研究不同,研究人員深入分析了LVLM安全性的各個(gè)方面,涵蓋了從攻擊策略到防御機(jī)制,再到評估方法的全面內(nèi)容。

通過細(xì)致探討LVLM模型在訓(xùn)練和推理不同階段面臨的具體安全問題,該論文不僅提供了全面的安全態(tài)勢分析,還詳細(xì)介紹了針對各類安全風(fēng)險(xiǎn)的有效應(yīng)對措施,為提升LVLM安全性和魯棒性提供了系統(tǒng)性的指導(dǎo)和參考。

突破孤立分析的困境,統(tǒng)一攻擊-防御-評估的總體框架

論文指出,許多現(xiàn)有研究僅聚焦于LVLM的攻擊或防御的某一方面,這種孤立的分析方法無法全面揭示LVLM的安全性,導(dǎo)致對整體安全態(tài)勢的理解不夠深入。盡管一些研究試圖同時(shí)討論LLM和LVLM的安全問題,但未能充分關(guān)注LVLM所面臨的獨(dú)特挑戰(zhàn),泛泛而談。

為此,研究人員提出了一種系統(tǒng)化的分析方法,整合了攻擊、防御和評估這三個(gè)密切相關(guān)的領(lǐng)域,從而全面揭示LVLM固有的漏洞及其潛在的緩解策略。

通過整合領(lǐng)域內(nèi)最全面的相關(guān)研究,論文提供了更加深入和系統(tǒng)的LVLM安全性分析,涵蓋了多個(gè)維度的安全問題,填補(bǔ)了現(xiàn)有研究的空白,推動了該領(lǐng)域的進(jìn)一步發(fā)展。

圖片

圖1. 論文整體結(jié)構(gòu)

此外,論文還基于LVLM生命周期的不同階段(訓(xùn)練和推理)對相關(guān)研究進(jìn)行了詳細(xì)分類,從而提供了更加細(xì)致的分析,該分類方法能夠更清晰地揭示每個(gè)階段所面臨的獨(dú)特安全挑戰(zhàn),因?yàn)橛?xùn)練階段和推理階段的安全問題本質(zhì)上有所不同。

訓(xùn)練階段主要涉及模型學(xué)習(xí)過程中的數(shù)據(jù)安全性問題,而推理階段則側(cè)重于模型實(shí)際應(yīng)用中的安全風(fēng)險(xiǎn),通過分析生命周期中不同階段的安全策略,研究者們能夠更有針對性地識別和應(yīng)對不同階段的潛在威脅。

例如,在推理階段,攻擊可分為白盒攻擊、灰盒攻擊和黑盒攻擊(如圖2所示)。

圖片

圖2. 白盒、灰盒、黑盒攻擊介紹

白盒攻擊假設(shè)攻擊者能夠完全訪問模型的內(nèi)部結(jié)構(gòu)、參數(shù)和梯度信息,從而精準(zhǔn)操控模型行為;灰盒攻擊則設(shè)定攻擊者對模型架構(gòu)有所了解,并通過構(gòu)建替代模型生成惡意輸入;而黑盒攻擊則假設(shè)攻擊者只能通過輸入輸出對與模型交互,完全無法獲取任何內(nèi)部信息,模擬了現(xiàn)實(shí)世界中更具挑戰(zhàn)性的攻擊情境。

Janus-Pro的安全性測評

除了對現(xiàn)有工作進(jìn)行歸納,研究人員同時(shí)對DeepSeek最新發(fā)布的統(tǒng)一多模態(tài)大模型:Janus-Pro進(jìn)行了安全性評估。

通過在SIUO以及MM-SafetyBench上進(jìn)行測試,結(jié)果表示,盡管Janus-Pro在多模態(tài)理解能力上取得了令人印象深刻的成績,但其安全性表現(xiàn)仍然是一個(gè)顯著的限制。在多個(gè)基準(zhǔn)測試中,Janus-Pro未能達(dá)到大多數(shù)其他模型的基本安全能力。

圖片

圖3. Evaluation on SIUO

圖片

圖4. Evaluation on MM-SafetyBench

研究人員推測,這一短板可能與模型架構(gòu)本身的設(shè)計(jì)有關(guān):該架構(gòu)的主要目標(biāo)是同時(shí)處理多模態(tài)理解和圖片生成任務(wù),可能導(dǎo)致其在設(shè)計(jì)時(shí)未能充分考慮和優(yōu)化專門的安全機(jī)制。

此外,Janus-Pro可能沒有經(jīng)過專門的安全性訓(xùn)練,缺乏針對這些特定問題的預(yù)防措施和應(yīng)對策略,從而導(dǎo)致其在識別、緩解和防范有害輸入方面的能力相對有限??紤]到安全性在多模態(tài)模型實(shí)際應(yīng)用中的至關(guān)重要性,顯然Janus-Pro的安全性亟需大幅提升。

為增強(qiáng)Janus-Pro在高風(fēng)險(xiǎn)任務(wù)和復(fù)雜場景中的有效性,必須進(jìn)一步優(yōu)化其架構(gòu)與訓(xùn)練方法,特別是加強(qiáng)對安全性和對抗性魯棒性的關(guān)注,以確保其在面對挑戰(zhàn)時(shí)能夠提供更加可靠的防護(hù)。

未來研究趨勢

研究人員認(rèn)為,未來LVLM安全性研究將集中于幾個(gè)關(guān)鍵領(lǐng)域。

首先,黑盒攻擊的相關(guān)研究將逐步增多,黑盒攻擊方法不依賴于對模型內(nèi)部結(jié)構(gòu)的訪問,而是通過利用LVLM固有的能力,如光學(xué)字符識別(OCR)、邏輯推理等,從而提升攻擊的可轉(zhuǎn)移性和資源效率;

其次,跨模態(tài)安全對齊的研究將成為重要課題,考慮到視覺和文本輸入的組合可能導(dǎo)致不安全輸出,亟需在安全性設(shè)計(jì)中加強(qiáng)視覺與語言模態(tài)的協(xié)同,以避免潛在的風(fēng)險(xiǎn);

第三,安全微調(diào)技術(shù)的多樣化,特別是通過人類反饋強(qiáng)化學(xué)習(xí)(RLHF)和對抗訓(xùn)練等方法,將有助于在保持模型高效性能的同時(shí)顯著提升其安全性。

最后,發(fā)展統(tǒng)一的策略基準(zhǔn)框架將成為研究的重點(diǎn),通過該框架能夠更加有效地比較不同攻擊與防御策略的優(yōu)缺點(diǎn),推動更強(qiáng)大且高效的解決方案,從而確保LVLM在實(shí)際應(yīng)用中的安全性與魯棒性。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-12-24 13:01:12

2016-09-29 22:54:55

2018-01-26 17:36:12

2015-10-20 18:43:43

2012-03-19 10:25:55

2012-02-20 14:57:59

殺毒軟件漏洞安全

2022-01-17 11:15:47

特斯拉自動駕駛

2016-09-21 10:11:19

2013-07-17 09:12:55

2019-02-22 09:00:00

2017-06-13 11:11:53

2024-11-29 18:37:07

2010-05-22 10:34:44

2016-08-02 17:08:46

2009-07-15 08:35:17

2017-05-25 22:45:05

2024-01-10 17:25:00

AI數(shù)據(jù)

2011-01-19 11:51:39

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號