自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

“萬模裸奔”,DeepSeek正顛覆網(wǎng)絡(luò)安全行業(yè)游戲規(guī)則

安全 應(yīng)用安全 人工智能
“村村點(diǎn)火”的生成式AI正引發(fā)一場企業(yè)網(wǎng)絡(luò)安全革命。AI工具引入了全新的攻擊媒介和數(shù)據(jù)安全威脅,傳統(tǒng)的靜態(tài)防御體系已形同虛設(shè),網(wǎng)絡(luò)安全行業(yè)面臨一場技術(shù)/工具、方法和技能的全面更新。

對于企業(yè)而言,AI既是提升生產(chǎn)力的強(qiáng)大工具,同時(shí)也為攻擊者和惡意內(nèi)部人員提供了“大殺器”。隨著生成式AI(例如ChatGPT和DeepSeek)在企業(yè)和政府機(jī)構(gòu)中的廣泛應(yīng)用和不安全部署,“萬模裸奔”產(chǎn)生的數(shù)據(jù)安全風(fēng)險(xiǎn)已經(jīng)到了失控的邊緣。

2025年是AI安全元年,首席信息安全官(CISO)們必須提前做好準(zhǔn)備,應(yīng)對“萬模裸奔”引發(fā)的數(shù)據(jù)安全危機(jī)。

警惕數(shù)據(jù)的“智能化泄漏”

與傳統(tǒng)IT系統(tǒng)不同,生成式AI引入了全新的攻擊媒介,可導(dǎo)致數(shù)據(jù)泄漏、業(yè)務(wù)中斷甚至法律風(fēng)險(xiǎn)例如:

  • 提示注入:惡意行為者操縱AI提示來改變輸出或暴露敏感數(shù)據(jù)。
  • 數(shù)據(jù)中毒:對手破壞訓(xùn)練數(shù)據(jù)以影響模型行為。
  • 幻覺:人工智能產(chǎn)生虛假或誤導(dǎo)性的信息,可能會損害決策過程。

由于生成式AI的發(fā)展和普及速度很快,CISO和安全團(tuán)隊(duì)往往缺乏足夠經(jīng)驗(yàn)和技能應(yīng)對AI安全風(fēng)險(xiǎn),在威脅建模和風(fēng)險(xiǎn)評估方面存在較大差距。

面對洶涌的生成式AI浪潮,企業(yè)最擔(dān)心的還是數(shù)據(jù)安全問題(例如商業(yè)機(jī)密數(shù)據(jù)被競爭對手獲?。?。以最近的一起案例為例:一名員工利用AI助手訪問了企業(yè)內(nèi)部數(shù)據(jù)庫,竊取了包含客戶銷售記錄和產(chǎn)品使用情況的敏感數(shù)據(jù),并將其帶到新的雇主處使用。

這正是生成式AI放大數(shù)據(jù)泄露風(fēng)險(xiǎn)的典型例子。據(jù)Gartner最新研究,微軟365 Copilot、Salesforce等基于生成式AI的工具正成為企業(yè)提升生產(chǎn)力的利器,但其對數(shù)據(jù)安全的威脅亦呈指數(shù)級攀升。近60%的受訪者認(rèn)為,過度共享、數(shù)據(jù)泄漏和內(nèi)容蔓延是企業(yè)部署人工智能助手時(shí)面臨的最大風(fēng)險(xiǎn)。

Salesforce首席執(zhí)行官M(fèi)arc Benioff在2024年10月公開批評了Microsoft的Copilot,稱其為“令人失望的Clippy 2.0”。他引用了Gartner的報(bào)告,強(qiáng)調(diào)了Copilot在數(shù)據(jù)過度共享和安全方面的問題,導(dǎo)致許多組織推遲了實(shí)施計(jì)劃。

AI引爆“權(quán)限炸彈”

研究顯示,企業(yè)近99%的訪問權(quán)限處于閑置狀態(tài),其中過半屬于高風(fēng)險(xiǎn)權(quán)限。傳統(tǒng)安全管理中,冗余權(quán)限本已是重大隱患,而生成式AI的介入使問題急劇惡化,甚至?xí)@些“權(quán)限炸彈”,以幾何級數(shù)放大數(shù)據(jù)安全風(fēng)險(xiǎn)。例如,Microsoft Copilot可以訪問所有用戶權(quán)限范圍內(nèi)的數(shù)據(jù),即使用戶本人并未意識到自己擁有這些權(quán)限。這意味著,敏感數(shù)據(jù)可能通過AI對話被無意或惡意泄露。

AI改寫網(wǎng)絡(luò)攻擊游戲規(guī)則:從技術(shù)滲透到提示注入

除了增加數(shù)據(jù)泄漏風(fēng)險(xiǎn)外,生成式AI還在改寫網(wǎng)絡(luò)攻擊的游戲規(guī)則。傳統(tǒng)黑客攻擊通常需要攻擊者耐心滲透系統(tǒng),探索內(nèi)部環(huán)境,生成式AI徹底顛覆了傳統(tǒng)攻擊模式。攻擊者無需再耗時(shí)滲透系統(tǒng),只需向AI助手提問(提示注入)即可獲取敏感信息或訪問憑證,進(jìn)而實(shí)施橫向移動。當(dāng)前AI對網(wǎng)絡(luò)安全的六大核心挑戰(zhàn)包括:

  • 員工數(shù)據(jù)訪問權(quán)限過度寬松
  • 敏感數(shù)據(jù)標(biāo)識缺失或錯誤
  • 內(nèi)部人員通過自然語言快速定位并外泄數(shù)據(jù)
  • 攻擊者利用AI挖掘權(quán)限升級路徑
  • 人工難以及時(shí)校準(zhǔn)動態(tài)權(quán)限
  • AI持續(xù)生成新型敏感數(shù)據(jù)

盡管這些風(fēng)險(xiǎn)并非新問題,但AI的介入極大地降低了信息泄露的門檻,使得攻擊者比以往更容易大規(guī)模高效率利用企業(yè)的安全漏洞。

萬模裸奔:部署開源模型的風(fēng)險(xiǎn)

隨著開源AI模型的興起,許多企業(yè)選擇部署如DeepSeek等模型,以期在本地環(huán)境中利用AI技術(shù)。然而,這種做法也帶來了新的安全隱患。

根據(jù)奇安信近日發(fā)布的資產(chǎn)測繪監(jiān)測結(jié)果,在8971個Ollama(一款開源大語言模型服務(wù)工具)大模型服務(wù)器中,有6449個活躍服務(wù)器,其中88.9%都“裸奔”在互聯(lián)網(wǎng)上,面臨數(shù)據(jù)泄漏、服務(wù)中斷和濫用等嚴(yán)重威脅。私有化部署開源模型的風(fēng)險(xiǎn)主要有以下幾點(diǎn):

1.暴露的服務(wù)器風(fēng)險(xiǎn)

近期,有攻擊者通過自動化腳本掃描暴露的DeepSeek服務(wù)器,惡意占用大量計(jì)算資源,導(dǎo)致部分用戶服務(wù)器崩潰。

2.缺乏安全認(rèn)證

一些工具(例如Ollama)在默認(rèn)情況下未提供安全認(rèn)證功能,導(dǎo)致許多部署DeepSeek的用戶忽略了必要的安全限制,未對服務(wù)設(shè)置訪問控制。這使得任何人都可以在未經(jīng)授權(quán)的情況下訪問這些服務(wù),增加了數(shù)據(jù)泄露和服務(wù)中斷的風(fēng)險(xiǎn)。

3.模型固件加密不足

在本地化部署中,模型核心邏輯需要嵌入硬件固件,以防止惡意篡改或逆向工程。如果缺乏適當(dāng)?shù)募用艽胧粽呖赡軙眠@些漏洞,進(jìn)一步威脅系統(tǒng)的安全性。

4.數(shù)據(jù)合規(guī)性問題

開源模型的訓(xùn)練數(shù)據(jù)來源復(fù)雜,可能涉及版權(quán)和隱私問題(甚至導(dǎo)致嚴(yán)厲監(jiān)管處罰的內(nèi)容安全問題)。企業(yè)在使用這些模型時(shí),需要確保數(shù)據(jù)來源合法,并在部署前進(jìn)行全面的安全測試,以避免潛在的法律和安全風(fēng)險(xiǎn)。

構(gòu)筑新型AI防御體系的八大關(guān)鍵措施

要想降低AI帶來的數(shù)據(jù)安全風(fēng)險(xiǎn),CISO們必須夯實(shí)數(shù)據(jù)管理基礎(chǔ),方可引入AI工具。在部署基于大模型的AI工具(無論是開源還是閉源,云端還是本地私有部署)之前,企業(yè)需要明確所有敏感數(shù)據(jù)的存儲位置,并具備識別風(fēng)險(xiǎn)、修復(fù)安全漏洞和優(yōu)化權(quán)限配置的能力。

企業(yè)部署DeepSeek等開源模型時(shí),需重視和采取以下主動防御措施:

  • 定期進(jìn)行安全審計(jì):對模型和相關(guān)系統(tǒng)進(jìn)行定期的安全檢查,及時(shí)發(fā)現(xiàn)并修復(fù)潛在的漏洞。嚴(yán)格審核第三方AI模型的訓(xùn)練數(shù)據(jù)來源與隱私政策,防范數(shù)據(jù)主權(quán)爭議。
  • 彌補(bǔ)AI安全技能鴻溝:鼓勵員工獲取AI安全相關(guān)認(rèn)證(如CAISP、CISSP-AI),提升專業(yè)技能,同時(shí)通過模擬攻擊演練(如紅隊(duì)/藍(lán)隊(duì)演習(xí))增強(qiáng)實(shí)戰(zhàn)能力。建立內(nèi)部培訓(xùn)計(jì)劃,開發(fā)針對AI安全的技術(shù)培訓(xùn)課程,涵蓋模型漏洞分析、數(shù)據(jù)隱私保護(hù)、算法偏見識別等內(nèi)容,培養(yǎng)既有AI技術(shù)背景又有安全意識的復(fù)合型人才。
  • 加強(qiáng)員工安全意識培訓(xùn):AI大大提升了攻防兩端的能力(例如DeepSeek極大提升了勒索軟件和網(wǎng)絡(luò)釣魚的中文水平),這意味著企業(yè)需要緊急追加預(yù)算提高員工的安全意識水平,確保他們了解并識別那些足可以假亂真的釣魚信息、AI幻覺信息,以及學(xué)習(xí)安全使用和管理AI工具。
  • 遵守?cái)?shù)據(jù)合規(guī)性要求:在使用開源模型時(shí),確保遵守相關(guān)的數(shù)據(jù)保護(hù)法律法規(guī),避免侵犯用戶隱私或知識產(chǎn)權(quán)。

在AI工具正式投入使用后,安全管理人員需要采取以下持續(xù)監(jiān)控措施:

  • 權(quán)限動態(tài)治理。實(shí)施最小權(quán)限原則,定期審計(jì)員工權(quán)限范圍,確保AI工具訪問權(quán)限與用戶實(shí)際需求嚴(yán)格匹配,杜絕“權(quán)限閑置即風(fēng)險(xiǎn)”的隱患。
  • 數(shù)據(jù)智能分類。通過自動化工具全域掃描敏感數(shù)據(jù),建立精細(xì)化標(biāo)簽體系,為數(shù)據(jù)防泄露(DLP)策略提供可執(zhí)行的分類基準(zhǔn)。
  • 人機(jī)行為監(jiān)控。構(gòu)建AI操作審計(jì)機(jī)制,實(shí)時(shí)監(jiān)測異常提示詞(Prompts)、文件訪問模式等行為特征。例如,某員工若頻繁要求AI匯總客戶清單并關(guān)聯(lián)財(cái)務(wù)數(shù)據(jù),系統(tǒng)需立即觸發(fā)告警。
  • 影子AI可視化。通過CASB(云訪問安全代理)監(jiān)控?cái)?shù)百個AI應(yīng)用,識別高風(fēng)險(xiǎn)工具并建立禁用清單(如金融行業(yè)100%屏蔽未授權(quán)AI)。

生成式AI快速普及帶來的數(shù)據(jù)安全威脅正在引發(fā)一場企業(yè)網(wǎng)絡(luò)安全革命,導(dǎo)致企業(yè)安全體系的大規(guī)模范式轉(zhuǎn)移。CISO必須意識到:當(dāng)AI工具能瞬間調(diào)用全網(wǎng)數(shù)據(jù)時(shí),傳統(tǒng)的靜態(tài)防御體系已形同虛設(shè)。唯有將安全文化、數(shù)據(jù)治理、權(quán)限管控與行為分析深度耦合,方能駕馭AI這把“效率與風(fēng)險(xiǎn)并存的大殺器”。要想因?qū)Πㄓ白覣I在內(nèi)的生成式AI帶來的數(shù)據(jù)安全危機(jī),CISO亟需開展一場融合技術(shù)、管理與文化的系統(tǒng)性變革。

責(zé)任編輯:華軒 來源: GoUpSec
相關(guān)推薦

2018-01-14 16:01:33

2025-01-27 11:34:30

2018-12-07 16:08:28

Aruba網(wǎng)絡(luò)管理

2018-01-02 13:35:27

Aruba網(wǎng)絡(luò)管理

2024-05-23 15:27:34

2024-04-11 13:44:06

網(wǎng)絡(luò)安全數(shù)據(jù)泄露

2023-12-05 14:39:53

網(wǎng)絡(luò)安全網(wǎng)絡(luò)監(jiān)管

2024-07-18 15:03:56

2023-04-24 14:26:32

2020-04-27 09:31:45

網(wǎng)絡(luò)安全COVID19漏洞

2023-12-29 14:17:16

2022-06-14 13:52:02

數(shù)字化轉(zhuǎn)型IT招聘

2023-11-03 15:38:26

網(wǎng)絡(luò)安全人工智能數(shù)字化轉(zhuǎn)型

2016-01-21 13:04:30

網(wǎng)絡(luò)安全

2020-01-02 14:32:34

福布斯安全惡意

2020-01-05 23:01:50

網(wǎng)絡(luò)安全網(wǎng)絡(luò)攻擊漏洞

2012-07-13 10:29:03

2023-05-11 14:07:29

2023-12-06 14:39:42

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號