生成人工智能聊天機(jī)器人和大型語言模型增強(qiáng)網(wǎng)絡(luò)安全的六種方法
從風(fēng)險(xiǎn)的角度來看,生成式人工智能聊天機(jī)器人和大型語言模型可能是一把雙刃劍,但如果使用得當(dāng),它們也可以在關(guān)鍵方面改善網(wǎng)絡(luò)安全。
OpenAI公司開發(fā)的ChatGPT的迅速崛起是今年最大的新聞之一,生成式AI聊天機(jī)器人和大型語言模型對(duì)網(wǎng)絡(luò)安全的潛在影響是討論的關(guān)鍵領(lǐng)域。關(guān)于這些新技術(shù)可能帶來的安全風(fēng)險(xiǎn)有很多討論,從擔(dān)心與高級(jí)自學(xué)習(xí)算法共享敏感業(yè)務(wù)信息到惡意行為者使用它們來顯著增強(qiáng)攻擊。
一些國家、各州和企業(yè)以數(shù)據(jù)安全、保護(hù)和隱私為由,下令禁止使用ChatGPT等生成式人工智能技術(shù)。顯然,生成式人工智能聊天機(jī)器人和大型大型語言模型帶來的安全風(fēng)險(xiǎn)是相當(dāng)大的。然而,生成式人工智能聊天機(jī)器人可以通過多種方式增強(qiáng)企業(yè)的網(wǎng)絡(luò)安全,為安全團(tuán)隊(duì)打擊網(wǎng)絡(luò)犯罪活動(dòng)提供急需的助力。
以下是生成式人工智能聊天機(jī)器人和大型語言模型提高安全性的6種方法。
漏洞掃描和過濾
根據(jù)云安全聯(lián)盟(CSA)一份探討大型語言模型網(wǎng)絡(luò)安全影響的報(bào)告,生成式人工智能模型可用于顯著增強(qiáng)安全漏洞的掃描和過濾。在論文中,云安全聯(lián)盟(CSA)證明了OpenAI的CodexAPI是針對(duì)C、c#、Java和JavaScript等編程語言的有效漏洞掃描器。“我們可以預(yù)見,大型語言模型,就像Codex家族中的那些一樣,將成為未來漏洞掃描器的標(biāo)準(zhǔn)組成部分,”論文寫道。例如,可以開發(fā)掃描器來檢測(cè)和標(biāo)記各種語言中的不安全代碼模式,幫助開發(fā)人員在潛在的漏洞成為關(guān)鍵的安全風(fēng)險(xiǎn)之前解決它們。
至于過濾,生成式人工智能模型可以解釋并為威脅標(biāo)識(shí)符添加有價(jià)值的場景,否則可能會(huì)被人類安全人員遺漏。例如,MITREATT&CK框架中的技術(shù)標(biāo)識(shí)符TT1059.001可能會(huì)被報(bào)告,但對(duì)于一些網(wǎng)絡(luò)安全專業(yè)人員來說并不熟悉,因此需要進(jìn)行簡要的解釋。ChatGPT可以準(zhǔn)確地將代碼識(shí)別為MITREATT&CK標(biāo)識(shí)符,并提供與之相關(guān)的具體問題的解釋,其中涉及使用惡意PowerShell腳本。它還詳細(xì)闡述了PowerShell的性質(zhì)及其在網(wǎng)絡(luò)安全攻擊中的潛在用途,并提供了相關(guān)示例。
今年5月,OXSecurity宣布推出OX-gpt,這是一個(gè)ChatGPT集成,旨在幫助開發(fā)人員提供定制的代碼修復(fù)建議和剪切粘貼代碼修復(fù),包括代碼如何被黑客利用,攻擊的可能影響以及對(duì)組織的潛在損害。
反轉(zhuǎn)附加組件,分析PE文件的api
DeepInstinct網(wǎng)絡(luò)智能工程經(jīng)理MattFulmer表示,基于IDA和Ghidra等逆向工程框架,生成式人工智能/大型語言模型(LLM)技術(shù)可用于幫助構(gòu)建規(guī)則和逆轉(zhuǎn)流行的附加組件?!叭绻忝鞔_了自己的需求,并將其與MITRE的攻擊和攻擊策略進(jìn)行比較,你就可以將結(jié)果離線,并更好地將其用作防御。”
llm還可以通過應(yīng)用程序進(jìn)行交流,分析可移植可執(zhí)行文件(PE)的API,并告訴你它們的用途,他補(bǔ)充道?!斑@可以減少安全研究人員花在查看PE文件和分析其中API通信上的時(shí)間?!?/p>
威脅搜索查詢
根據(jù)CSA的說法,安全防御者可以通過利用ChatGPT和其他llm來創(chuàng)建威脅搜索查詢來提高效率并加快響應(yīng)時(shí)間。通過為惡意軟件研究和檢測(cè)工具(如YARA)生成查詢,ChatGPT有助于快速識(shí)別和減輕潛在威脅,使防御者能夠?qū)W⒂谄渚W(wǎng)絡(luò)安全工作的關(guān)鍵方面。事實(shí)證明,在不斷發(fā)展的威脅環(huán)境中,這種能力對(duì)于保持穩(wěn)健的安全態(tài)勢(shì)是無價(jià)的。可以根據(jù)特定需求和組織希望在其環(huán)境中檢測(cè)或監(jiān)視的威脅來定制規(guī)則。
人工智能可以提高供應(yīng)鏈的安全性
生成式人工智能模型可以通過識(shí)別供應(yīng)商的潛在漏洞來解決供應(yīng)鏈安全風(fēng)險(xiǎn)。今年4月,SecurityScorecard宣布推出一個(gè)新的安全評(píng)級(jí)平臺(tái),通過與OpenAI的GPT-4系統(tǒng)和自然語言全球搜索集成來實(shí)現(xiàn)這一目標(biāo)。據(jù)該公司稱,客戶可以詢問有關(guān)其業(yè)務(wù)生態(tài)系統(tǒng)的開放式問題,包括供應(yīng)商的詳細(xì)信息,并迅速獲得答案,以推動(dòng)風(fēng)險(xiǎn)管理決策。例如,“找到我的10個(gè)評(píng)級(jí)最低的供應(yīng)商”或“顯示我的哪些關(guān)鍵供應(yīng)商在過去一年中被入侵”——SecurityScorecard聲稱,這些問題將產(chǎn)生結(jié)果,使團(tuán)隊(duì)能夠快速做出風(fēng)險(xiǎn)管理決策。
檢測(cè)攻擊中的生成AI文本
據(jù)CSA稱,大型語言模型不僅生成文本,而且還致力于檢測(cè)和水印人工智能生成的文本,這可能成為電子郵件保護(hù)軟件的常見功能。CSA表示,識(shí)別攻擊中人工智能生成的文本可以幫助檢測(cè)網(wǎng)絡(luò)釣魚郵件和多態(tài)代碼,并且可以假設(shè)llm可以輕松檢測(cè)非典型電子郵件地址發(fā)件人或其相應(yīng)的域,同時(shí)能夠檢查文本中的底層鏈接是否指向已知的惡意網(wǎng)站。
安全代碼的生成和傳輸
像ChatGPT這樣的llm可以用來生成和傳輸安全代碼。CSA引用了一個(gè)網(wǎng)絡(luò)釣魚活動(dòng)的例子,該活動(dòng)成功地針對(duì)了公司內(nèi)的幾名員工,可能暴露了他們的憑證。雖然知道哪些員工打開了網(wǎng)絡(luò)釣魚郵件,但尚不清楚他們是否無意中執(zhí)行了旨在竊取他們憑證的惡意代碼。
為了調(diào)查這個(gè)問題,可以使用Microsoft365Defender高級(jí)搜索查詢來查找電子郵件收件人在收到已知惡意電子郵件后30分鐘內(nèi)執(zhí)行的最近10次登錄事件。該查詢有助于識(shí)別任何可能與受損憑據(jù)相關(guān)的可疑登錄活動(dòng)?!?/p>
在這里,ChatGPT可以提供Microsoft365Defender搜索查詢,以檢查受感染的電子郵件帳戶的登錄嘗試,這有助于阻止攻擊者進(jìn)入系統(tǒng),并澄清用戶是否需要更改密碼。這是在網(wǎng)絡(luò)事件響應(yīng)期間減少行動(dòng)時(shí)間的一個(gè)很好的例子。
基于相同的示例,您可能會(huì)遇到相同的問題并找到Microsoft365Defender查找查詢,但是您的系統(tǒng)不使用KQL編程語言。可以進(jìn)行編程語言風(fēng)格轉(zhuǎn)換,而不是用您想要的語言搜索正確的示例。
他說,“這個(gè)例子說明了ChatGPT的底層Codex模型可以采用源代碼示例并用另一種編程語言生成示例。它還通過在其提供的答案和新創(chuàng)建背后的方法中添加關(guān)鍵細(xì)節(jié),簡化了最終用戶的過程?!?/p>
根據(jù)CSA的說法,安全防御者可以通過利用ChatGPT和其他llm來創(chuàng)建威脅搜索查詢來提高效率并加快響應(yīng)時(shí)間。通過為惡意軟件研究和檢測(cè)工具(如YARA)生成查詢,ChatGPT有助于快速識(shí)別和減輕潛在威脅,使防御者能夠?qū)W⒂谄渚W(wǎng)絡(luò)安全工作的關(guān)鍵方面。事實(shí)證明,在不斷發(fā)展的威脅環(huán)境中,這種能力對(duì)于保持穩(wěn)健的安全態(tài)勢(shì)是無價(jià)的??梢愿鶕?jù)特定需求和組織希望在其環(huán)境中檢測(cè)或監(jiān)視的威脅來定制規(guī)則。
人工智能可以提高供應(yīng)鏈的安全性
生成式人工智能模型可以通過識(shí)別供應(yīng)商的潛在漏洞來解決供應(yīng)鏈安全風(fēng)險(xiǎn)。今年4月,SecurityScorecard宣布推出一個(gè)新的安全評(píng)級(jí)平臺(tái),通過與OpenAI的GPT-4系統(tǒng)和自然語言全球搜索集成來實(shí)現(xiàn)這一目標(biāo)。據(jù)該公司稱,客戶可以詢問有關(guān)其業(yè)務(wù)生態(tài)系統(tǒng)的開放式問題,包括供應(yīng)商的詳細(xì)信息,并迅速獲得答案,以推動(dòng)風(fēng)險(xiǎn)管理決策。例如,“找到我的10個(gè)評(píng)級(jí)最低的供應(yīng)商”或“顯示我的哪些關(guān)鍵供應(yīng)商在過去一年中被入侵”——SecurityScorecard聲稱,這些問題將產(chǎn)生結(jié)果,使團(tuán)隊(duì)能夠快速做出風(fēng)險(xiǎn)管理決策。
檢測(cè)攻擊中的生成AI文本
據(jù)CSA稱,大型語言模型不僅生成文本,而且還致力于檢測(cè)和水印人工智能生成的文本,這可能成為電子郵件保護(hù)軟件的常見功能。CSA表示,識(shí)別攻擊中人工智能生成的文本可以幫助檢測(cè)網(wǎng)絡(luò)釣魚郵件和多態(tài)代碼,并且可以假設(shè)llm可以輕松檢測(cè)非典型電子郵件地址發(fā)件人或其相應(yīng)的域,同時(shí)能夠檢查文本中的底層鏈接是否指向已知的惡意網(wǎng)站。
安全代碼的生成和傳輸
像ChatGPT這樣的llm可以用來生成和傳輸安全代碼。CSA引用了一個(gè)網(wǎng)絡(luò)釣魚活動(dòng)的例子,該活動(dòng)成功地針對(duì)了公司內(nèi)的幾名員工,可能暴露了他們的憑證。雖然知道哪些員工打開了網(wǎng)絡(luò)釣魚郵件,但尚不清楚他們是否無意中執(zhí)行了旨在竊取他們憑證的惡意代碼。
為了調(diào)查這個(gè)問題,可以使用Microsoft365Defender高級(jí)搜索查詢來查找電子郵件收件人在收到已知惡意電子郵件后30分鐘內(nèi)執(zhí)行的最近10次登錄事件。該查詢有助于識(shí)別任何可能與受損憑據(jù)相關(guān)的可疑登錄活動(dòng)。”
在這里,ChatGPT可以提供Microsoft365Defender搜索查詢,以檢查受感染的電子郵件帳戶的登錄嘗試,這有助于阻止攻擊者進(jìn)入系統(tǒng),并澄清用戶是否需要更改密碼。這是在網(wǎng)絡(luò)事件響應(yīng)期間減少行動(dòng)時(shí)間的一個(gè)很好的例子。
基于相同的示例,您可能會(huì)遇到相同的問題并找到Microsoft365Defender查找查詢,但是您的系統(tǒng)不使用KQL編程語言。您可以進(jìn)行編程語言風(fēng)格轉(zhuǎn)換,而不是用您想要的語言搜索正確的示例。
“這個(gè)例子說明了ChatGPT的底層Codex模型可以采用源代碼示例并用另一種編程語言生成示例。它還通過在其提供的答案和新創(chuàng)建背后的方法中添加關(guān)鍵細(xì)節(jié),簡化了最終用戶的過程?!鳖I(lǐng)導(dǎo)者必須確保生成式人工智能聊天機(jī)器人的安全使用
Gigamon首席戰(zhàn)略官ChaimMazal表示,與許多現(xiàn)代技術(shù)一樣,從風(fēng)險(xiǎn)的角度來看,人工智能和大型語言模型可能是一把雙刃劍,因此,領(lǐng)導(dǎo)者必須確保自己的團(tuán)隊(duì)安全可靠地使用這些產(chǎn)品?!鞍踩头蓤F(tuán)隊(duì)?wèi)?yīng)該合作,為他們的組織找到最好的前進(jìn)道路,在不損害知識(shí)產(chǎn)權(quán)或安全的情況下利用這些技術(shù)的能力?!?/p>
富爾默說,生成式人工智能是基于過時(shí)的結(jié)構(gòu)化數(shù)據(jù),所以只有在評(píng)估其在安全和防御方面的應(yīng)用時(shí),才能把它作為一個(gè)起點(diǎn)。例如,如果將其用于上述任何好處,則需要證明其輸出是合理的。把輸出放到線下,讓人把它做得更好、更準(zhǔn)確、更可操作。”
隨著時(shí)間的推移,生成式人工智能聊天機(jī)器人/大型語言模型最終將自然地增強(qiáng)安全性和防御能力,但利用人工智能/大型語言模型來幫助而不是傷害網(wǎng)絡(luò)安全態(tài)勢(shì),最終都將歸結(jié)為內(nèi)部溝通和響應(yīng)。到Mazal說?!吧墒饺斯ぶ悄?大型語言模型可以成為讓利益相關(guān)者以更快、更有效的方式全面解決安全問題的一種手段。領(lǐng)導(dǎo)者必須溝通如何利用工具來支持組織目標(biāo),同時(shí)教育他們了解潛在的威脅?!?/p>
TovieAI公司的人工智能技術(shù)主管兼首席執(zhí)行官JoshuaKaiser表示,人工智能聊天機(jī)器人也需要定期更新,以保持對(duì)威脅的有效防御,而人類的監(jiān)督對(duì)于確保大型語言模型的正常運(yùn)作至關(guān)重要。他說,“此外,大型語言模型需要理解場景,以提供準(zhǔn)確的響應(yīng)并捕捉任何安全問題,并應(yīng)定期進(jìn)行測(cè)試和評(píng)估,以識(shí)別潛在的弱點(diǎn)或漏洞。”