新觀點!CISO 們無需迷信 LLMs
近年來,網(wǎng)絡安全專家一直在呼吁拓展CISO的職責范圍,以應對日益復雜的網(wǎng)絡威脅。生成式AI的出現(xiàn),尤其是大型語言模型(LLMs)為網(wǎng)絡安全帶來了新的挑戰(zhàn)。盡管LLMs具有巨大的潛力,但網(wǎng)絡犯罪分子并未充分利用這一技術來提升其攻擊能力。
首先,LLMs在產(chǎn)生真正具有創(chuàng)意或推理能力的輸出方面表現(xiàn)不佳。盡管LLMs可以自動化一些常規(guī)任務,如滲透測試或漏洞掃描,但它們在為復雜入侵活動提供創(chuàng)意和危險優(yōu)勢方面作用有限。
其次,LLMs的使用帶來了邊際收益遞減的問題。隨著對生成式AI的自動化常規(guī)任務的依賴增加,利用該技術產(chǎn)生有效模擬或改進人類技術以進行妥協(xié)和利用的機會減少。LLMs的使用還增加了攻擊者的不確定性和不可預測性,從而降低了攻擊者利用生成式AI進行復雜入侵活動的動機。
LLMs對攻擊者和防御者的影響
從攻擊者的角度來看,LLMs并未帶來預期中的革命性變化。盡管LLMs可以用于增強網(wǎng)絡釣魚計劃或惡意軟件變種等狹義任務,但目前尚無證據(jù)表明,使用高級LLM技術的重大入侵行動取得了對防御者的全新優(yōu)勢。
相反,LLMs可能使攻擊者面臨更多的不確定性和風險。由于LLMs在基礎任務上的應用較多,與目標系統(tǒng)直接交互時的失敗可能性更高。這使得攻擊者在利用LLMs進行復雜入侵活動時更加謹慎。
從防御者的角度來看,LLMs的應用對防御者具有一定的幫助。常規(guī)自動化可以幫助防御者更高效地應對一些常見威脅。然而,防御者也需要注意到LLMs在主動防御或其他需要適應性、創(chuàng)造性輸入的任務中可能面臨的不可預測性。
CISO不要過度迷信生成式AI
CISO需要摒棄炒作,接受更加現(xiàn)實的觀點,了解新技術如何與攻擊者與防御者之間的已知關系相互作用。生成式AI不太可能實現(xiàn)進攻性網(wǎng)絡安全革命,更可能是成為防御者和攻擊者用以改變其實踐細節(jié)的小幅進化工具。
此外CISO還需要認識到,生成式AI在網(wǎng)絡安全領域的應用仍處于初級階段。盡管LLMs具有巨大的潛力,但它們在現(xiàn)實環(huán)境中的應用仍受到諸多限制,因此,CISO應關注LLMs的實際應用情況,而不是過分擔憂其潛在威脅。
總之,盡管生成式AI在網(wǎng)絡安全領域具有廣泛的應用前景,但網(wǎng)絡犯罪分子并未充分利用這一技術來擴大其攻擊能力。CISO應保持理性看待生成式AI的發(fā)展,并采取相應的措施來應對潛在的網(wǎng)絡威脅。
參考來源:https://www.csoonline.com/article/3625578/cisos-should-stop-freaking-out-about-attackers-getting-a-boost-from-llms.html