自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

以火攻火:用LLM對付LLM生成的社會工程攻擊

安全 應用安全
我們在本文中探討了網絡防御者如何利用LLM生成的攻擊存在的漏洞和局限性。通過了解這些弱點,防御者就可以制定有針對性的緩解策略,并利用LLM作為消除威脅的寶貴工具,積極采用主動性、適應性的方法,防御者可以加強防御,比攻擊者領先一步。

人工智能領域的最新進展導致了大語言模型(LLM)問世,包括GPT-3、PaLM、GPT-4和LLAMA。這些模型可以生成易于理解的文本段落、回答詳細的問題、解決復雜的問題、編寫代碼以及處理其他各種自然語言任務。

LLM徹底改變了自然語言處理(NLP)任務,改變了用戶與語言進行交互的方式,最終通過改進后的聊天機器人、虛擬助手、內容生成、搜索引擎和語言學習平臺,影響了人們的日常生活。

雖然不可否認LLM進步巨大,有助于日常使用,但在網絡安全領域,它已成為一把雙刃劍,無意中為網絡犯罪分子開創(chuàng)了黃金時代。LLM允許攻擊者更高效更頻繁地進行一系列攻擊(包括魚叉式網絡釣魚和商業(yè)電子郵件入侵等社會工程伎倆),因為它能夠立即生成數千條獨特的明文攻擊消息。好消息是,LLM并非沒有缺陷,尤其在用于生成攻擊時。

我們在本文中將探討防御者如何利用LLM對抗由同樣的LLM生成的攻擊。

LLM攻擊:形式不同,實質相同

不妨先從分析三封電子郵件入手,每封郵件發(fā)送給我們保護的不同組織的用戶。這些惡意電子郵件都是商業(yè)電子郵件入侵(BEC)攻擊,攻擊者通常冒充一家公司的高層人員,比如首席執(zhí)行官或首席財務官,并指示員工購買禮品卡以獎勵同事。

電子郵件1:

電子郵件2:

電子郵件3:

如果你仔細看一下這些郵件,就會發(fā)現有著顯著的相似之處,如下所述:

相似之處

例子1

例子2

例子3

贊賞信息

忠誠和努力創(chuàng)造美好未來

美妙過程、努力、忠誠和專注打動了高層管理人員

美妙過程、努力、忠誠和專注打動了我

行動

送禮品卡,給一些員工以驚喜

送禮品卡,給一些高級員工以驚喜

送禮品卡,給一些員工以驚喜

要求保密

要求你保密,以免敗壞這份驚喜的效果

要求你保密,以免敗壞份驚喜的效果

要求你保密,以免敗壞這份驚喜的效果

潛在的禮品卡

Amex、維薩和塔吉特

Amex、維薩和亞馬遜

維薩、塔吉特和Amex

請求協助

想聽聽意見,了解最近的商店,為我迅速購買禮品

想聽聽意見

你能找到的最近商店,為我迅速購買禮品

簽收

一收到該電子郵件請回復,致以新年問候

一收到該電子郵件請回復,致以感恩節(jié)問候

期待你的回復,致以美好祝愿

從注意到的相似之處來看,可以假定電子郵件使用了模板。此外,易于識別的模式可以歸因于LLM的訓練過程。

當LLM接受訓練時,它接觸到大量的文本數據,使其能夠學習和內化模式。這些模式包括常見的語言結構、短語和內容元素。因此,當受過訓練的模型用于生成文本時,它會借鑒這學習到的知識,并將這些模式整合到輸出中,從而導致熟悉的主題和內容元素重復出現。

LLM防御?LMK

Perception Point利用了LLM生成的文本中的模式,并用LLM來增強威脅檢測。為了做到這一點,我們使用了transformer,這種高級模型可以理解文本的含義和上下文,LLM也使用了這種高級模型。

使用transformer,我們可以執(zhí)行文本嵌入,這個過程通過捕獲文本的語義本質,將文本編碼成數字表示。我們使用先進的聚類算法對語義內容密切相關的電子郵件進行分組。通過聚類,我們可以訓練模型來區(qū)分屬于同一聚類的電子郵件。這使模型能夠學習和識別由LLM生成的內容中的模式。

當新的電子郵件進入我們的高級威脅防護平臺時,模型會掃描其內容,以確定它是否是由LLM生成以及它被惡意使用的可能性。如果發(fā)現生成的文本是惡意文件,模型將提供潛在攻擊的詳細信息。

說到檢測人工智能生成的惡意電子郵件,還存在另外一個與誤報判定有關的障礙。如今,許多合法的電子郵件都是借助ChatGPT等生成式人工智能工具構建的,其他電子郵件常常是由含有重復短語的標準模板構建的(新聞通訊、營銷電子郵件和垃圾郵件等),這些模板與LLM模型的結果非常相似。

我們新模型的顯著特點之一是它的三階段架構,專門設計用于最大限度地檢測由LLM生成的任何有害內容,同時保持極低的誤報率。

在第一階段,模型賦予0到1之間的分數,以評估內容由人工智能生成的概率,然后模型切換到分類模式。借助先進的transformer和完善后的聚類算法,內容被分為多個類別,包括BEC、垃圾郵件和網絡釣魚。再提供0到1之間的分數,標記內容屬于這些類別的概率。

第三個也是最后一個階段融合了前兩個階段的評估結果,并補充了數字特征,比如發(fā)送方信譽評分、身份驗證協議(DKIM、SPF、DMARC)以及我們收集的其他證據?;谶@些輸入信息,模型對內容由人工智能生成的可能性以及它是惡意內容、垃圾郵件還是干凈內容做出最終預測。

為了查看實際運行的模型,我們讓ChatGPT編寫一封示例電子郵件:

如你所見,輸出含有用于個性化的括號。接下來,我們將生成的文本發(fā)送給模型,沒有括號。值得一提的是,對于下面的所有示例,階段3中提到的幾十個數值都被視為郵件是從新的發(fā)件人發(fā)送的。


模型返回的置信度分數為0.96,將該內容描述為潛在的BEC攻擊,具體是使用禮品卡請求從受害者那里竊取資金的郵件。

然后,我們測試了模型在面對生成較長的文本時的表現:

就像針對較短文本的初始判定一樣,模型還將生成的較長文本分類為潛在的BEC禮品卡攻擊,得分為0.92。

為了進一步測試模型,我們隨后讓ChatGPT撰寫一封電子郵件,要求收件人提供W-2表格。這是一種廣泛使用的社會工程攻擊,因為W-2表格用于報告員工的年薪以滿足稅收要求。對于網絡犯罪分子來說,這無異于一座金礦,擁有豐富的個人和財務信息,可用來進行身份盜竊、稅務欺詐,甚至用于更復雜的社會工程攻擊。

以下是ChatGPT給出的答案:

即使我們給了ChatGPT更詳細的說明,模型仍然可以正確地對內容進行分類——在這種情況下,將其分類成潛在的W2社會工程攻擊,得分為0.87。

結語

我們在本文中探討了網絡防御者如何利用LLM生成的攻擊存在的漏洞和局限性。通過了解這些弱點,防御者就可以制定有針對性的緩解策略,并利用LLM作為消除威脅的寶貴工具,積極采用主動性、適應性的方法,防御者可以加強防御,比攻擊者領先一步。

責任編輯:武曉燕 來源: 嘶吼網
相關推薦

2023-06-29 08:00:00

人工智能LLMGPT-4

2023-06-26 07:42:39

2023-09-01 15:22:49

人工智能數據

2018-07-16 08:36:13

2024-04-19 09:00:01

映射算法大型語言模型LLM

2023-06-30 09:00:00

Falcon LLM開源

2024-11-27 10:23:31

2024-02-29 12:56:00

AI訓練

2023-12-13 13:36:40

模型算力

2023-08-25 17:10:14

LLM人工智能

2024-06-03 07:57:32

LLMLlama 2token

2024-07-05 08:00:00

LLMHippoRAG

2019-12-24 08:29:56

社會工程學網絡攻擊漏洞

2025-01-08 15:15:16

2023-05-23 14:06:53

微軟研究

2024-03-01 09:00:00

大型語言模型數據集LLM

2024-09-30 09:04:20

2023-08-08 13:22:10

2024-05-20 08:31:33

檢索增強生成LLM大型語言模型

2019-08-28 13:34:10

社會工程攻擊信息安全漏洞
點贊
收藏

51CTO技術棧公眾號