自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

網絡安全里的人工智能模型:從誤用到濫用

安全 應用安全
人工智能尚未取代我們,但懂得如何使用人工智能的人將取代不懂如何使用人工智能的人。隨著技術發(fā)展如此之快,同時朝著如此多的方向發(fā)展,很難及時了解其發(fā)展和日益增加的風險。

人工智能現在還不會取代我們,但是懂得使用人工智能的人會取代不懂使用人工智能的人。

人工智能是目前每個人都關注的焦點,尤其是網絡安全行業(yè)。在一場持續(xù)不斷的打地鼠游戲中,防御者和攻擊者都在利用人工智能來打破各自有利的力量平衡。在我們了解防御者和攻擊者如何利用人工智能之前,我們需要了解目前流通的三種最常見的人工智能模型。

三種人工智能模型如何增強防御者

生成式 AI、監(jiān)督式機器學習和無監(jiān)督式機器學習是三種主要的 AI 模型。ChatGPT、Gemini 和 Copilot 等生成式 AI 工具可以理解人類輸入并以類似人類的響應提供輸出。值得注意的是,生成式 AI 會根據用戶交互不斷完善其輸出,使其有別于傳統(tǒng) AI 系統(tǒng)。無監(jiān)督式機器學習模型非常適合分析和識別大量非結構化或未標記數據中的模式?;蛘?,監(jiān)督式機器學習算法會根據標記良好、標記良好且結構良好的數據集進行預測。

 讓我們了解如何應用這些模型來增強人類研究人員和安全產品。

  • 想象一下,只需單擊一下按鈕,即可生成一份 AI 摘要,一份包含所有安全事件和警報的人類可讀報告,即使是非技術人員也可以閱讀和理解。這是生成式 AI 實際應用的一個很好的例子。
  • 想象一下像SASE (安全訪問服務邊緣)這樣融合的云原生網絡和安全理念,它可以處理數萬億個網絡流。實際上,任何個人(甚至團隊)都不可能篩選如此大量的網絡和安全數據來識別惡意模式。無監(jiān)督機器學習不僅可以找到模式,還可以將其與其他安全事件對應起來。
  • 想象一下分析所有安全和技術數據,找到模式并在攻擊發(fā)生之前預測攻擊:得益于監(jiān)督機器學習,安全研究人員的夢想成真了。

威脅行為者對人工智能模型的濫用

盡管媒體大肆宣傳,但網絡犯罪分子對人工智能的使用仍處于起步階段。這并不意味著人工智能不會被用于惡意目的,但它也不會像某些人聲稱的那樣導致人類文明的衰落。網絡犯罪分子使用人工智能來完成非常具體的任務,即:

  • 撰寫超針對性的BEC電子郵件。
  • 創(chuàng)建現有惡意軟件的新變種以逃避檢測(又稱多態(tài)惡意軟件)。
  • 掃描和分析代碼以識別目標系統(tǒng)中的漏洞。
  • 創(chuàng)建視頻和語音模仿(合成媒體、深度偽造)以進行社會工程攻擊。

威脅行為者還開始創(chuàng)建自己的私有和未經審查的模型(例如PoisonGPT、WolfGPT 和 FraudGPT),因為像 ChatGPT 這樣的公開可用的 AI 模型接受了道德培訓,并受到內容審核規(guī)則的約束,這些規(guī)則應用了一定程度的審查。其中一些工具(例如WormGPT)被嘲笑為 ChatGPT 的廉價連接器,并且仍然容易受到同樣的限制。

網絡犯罪分子如何攻擊、濫用和利用 LLM

威脅行為者攻擊和濫用大型語言模型的主要方式有六種。

  1. 通過針對提示:假設沙箱使用 AI 分析惡意軟件代碼。攻擊者在代碼中插入“惡意”提示,誤導其預測或檢測。這種技術稱為“提示注入”。還有其他對抗性提示技術,如混淆和“立即執(zhí)行任何操作”,攻擊者可以使用這些技術欺騙、破壞或用文字將 AI 武器化。
  2. 通過針對響應:如果攻擊者分析了包含私人或機密信息(如硬編碼密碼或商業(yè)機密)的某些代碼或數據集,會發(fā)生什么情況?這種不安全的輸出處理可能會導致數據泄露和其他安全事件。
  3. 通過針對模型:人工智能系統(tǒng)容易受到偏見的影響。人工智能安全系統(tǒng)可能會將來自日本的流量歸類為低風險。攻擊者可能會利用此漏洞并使用 VPN 來掩蓋其流量。攻擊者還可以利用人工智能幻覺。威脅行為者遇到未發(fā)布軟件包的幻覺,創(chuàng)建具有相同名稱的惡意負載,發(fā)布它,并欺騙系統(tǒng)認為它是系統(tǒng)的一部分。
  4. 通過針對訓練數據:媒體經常提到對 AI 訓練數據的攻擊,但獲取這些數據非常困難。攻擊者更有可能使用“反饋毒害”等技術,即利用人類反饋來操縱 LLM。例如,當你向 LLM 提問時,你會收到一個帶有“豎起大拇指”或“豎起大拇指”反饋選項的答案,這有助于模型了解什么是相關的,什么是不相關的。攻擊者可以利用這一點來操縱 LLM。
  5. 通過針對基礎設施: AI 模型托管在云計算服務器和數據中心。攻擊者可以發(fā)起分布式拒絕服務 (DDoS) 攻擊,試圖破壞或禁用該技術。供應鏈攻擊也是一種可能性。攻擊者可以攻擊供應鏈合作伙伴,并使用特權升級和橫向移動來操縱或禁用 AI 模型。
  6. 通過使用結果來針對人類、API 或系統(tǒng):惡意行為者可以用惡意軟件感染受害者筆記本電腦,并使用 GenAI劫持公司的金融交易。LLM 有自己的 API,第三方可以使用這些 API 來構建自定義指令和集成。如果這些集成存在漏洞,惡意行為者可以利用這些漏洞或構建惡意插件來運行中間人類型的攻擊。

人工智能尚未取代我們,但懂得如何使用人工智能的人將取代不懂如何使用人工智能的人。隨著技術發(fā)展如此之快,同時朝著如此多的方向發(fā)展,很難及時了解其發(fā)展和日益增加的風險。像人工智能這樣的任何快速發(fā)展都會引入許多以前無法想象的新工具、策略和利用機會。安全團隊必須投資于先進的融合安全模型,以提供對各種攻擊面的全面概述和管理。利用機器學習算法可以進一步提高威脅檢測和響應能力。

責任編輯:武曉燕 來源: 祺印說信安
相關推薦

2021-12-02 22:30:02

網絡安全人工智能技術

2021-10-19 10:56:33

人工智能AI深度學習

2022-07-26 14:41:23

網絡安全人工智能

2023-03-06 15:17:07

2019-07-09 09:22:06

人工智能網絡安全物聯網

2021-01-03 18:01:15

人工智能AI網絡安全

2023-05-17 16:24:29

2020-01-13 11:59:19

網絡安全人工智能技術

2024-03-01 11:43:26

2023-07-11 09:56:52

2023-03-09 10:18:33

2023-11-28 14:19:00

2020-05-15 11:20:16

網絡安全人工智能技術

2017-01-17 14:16:40

2023-12-14 15:41:14

2024-03-01 16:20:33

2020-07-06 18:34:32

人工智能網絡安全數據泄露

2022-05-10 11:32:51

動化測試的常見挑戰(zhàn)

2017-06-23 15:21:54

2020-10-12 10:25:33

網絡安全人工智能AI
點贊
收藏

51CTO技術棧公眾號