AI的效能在網(wǎng)絡(luò)安全方面受到限制,但在網(wǎng)絡(luò)犯罪方面卻是無限的
盡管AI具有巨大的潛力,但在網(wǎng)絡(luò)安全方面的應(yīng)用卻非常有限。AI安全解決方案存在信任問題,用于開發(fā)AI支持的安全產(chǎn)品的數(shù)據(jù)模型似乎長期處于風(fēng)險之中,此外,在實施時,AI經(jīng)常與人類智能發(fā)生沖突。
AI的雙刃性使其成為一個復(fù)雜的工具,公司需要更深入地理解和更仔細地使用它。相比之下,威脅參與者正在利用AI,幾乎沒有任何限制。
缺乏信任
在網(wǎng)絡(luò)安全中采用AI驅(qū)動的解決方案的最大問題之一是建立信任,許多公司對安全公司的AI產(chǎn)品持懷疑態(tài)度,這是可以理解的,因為其中幾個AI安全解決方案被過度炒作,未能交付。許多被宣傳為AI增強的產(chǎn)品并沒有達到預(yù)期。
這些產(chǎn)品最廣為人知的好處之一是,它們極大地簡化了安全任務(wù),即使是非安全人員也能完成這些任務(wù),這種說法往往令人失望,特別是對于那些在網(wǎng)絡(luò)安全人才匱乏的問題上苦苦掙扎的組織來說。AI本應(yīng)是網(wǎng)絡(luò)安全人才短缺的解決方案之一,但過度承諾和承諾不足的公司無助于解決問題-事實上,它們正在破壞與AI相關(guān)的說法的可信度。
讓工具和系統(tǒng)變得更加用戶友好,即使是對不了解情況的用戶,也是網(wǎng)絡(luò)安全的主要愿望之一,不幸的是,考慮到威脅的演變性質(zhì)以及削弱安全態(tài)勢的各種因素(如內(nèi)部攻擊),這很難實現(xiàn)。幾乎所有的AI系統(tǒng)仍然需要人類的指導(dǎo),AI沒有能力推翻人類的決定,例如,AI輔助的SIEM可能會準確地指出異常情況,供安全人員評估,然而,內(nèi)部威脅參與者可能會阻止對系統(tǒng)發(fā)現(xiàn)的安全問題的正確處理,使得在這種情況下使用AI實際上是徒勞的。
然而,一些網(wǎng)絡(luò)安全軟件供應(yīng)商確實提供了充分利用AI好處的工具,例如,集成了AI的擴展檢測和響應(yīng)(XDR)系統(tǒng)在檢測和響應(yīng)復(fù)雜攻擊序列方面有著良好的記錄。通過利用ML來擴大安全操作并確保隨著時間的推移更高效的檢測和響應(yīng)流程,XDR提供了實質(zhì)性的好處,可以幫助緩解人們對AI安全產(chǎn)品的懷疑。
數(shù)據(jù)模型和安全性的限制
另一個影響使用AI對抗AI輔助威脅的有效性的問題是,一些公司傾向于關(guān)注有限或不具代表性的數(shù)據(jù)。理想情況下,AI系統(tǒng)應(yīng)該提供真實世界的數(shù)據(jù),以描述地面正在發(fā)生的事情和公司遇到的特定情況,然而,這是一項巨大的努力。從世界各地收集數(shù)據(jù)來代表所有可能的威脅和攻擊場景的成本非常高,即使是最大的公司也試圖盡可能避免這種情況。
在擁擠的市場中競爭的安全解決方案供應(yīng)商也試圖盡快推出他們的產(chǎn)品,盡他們所能提供各種花哨的東西,但很少或根本不考慮數(shù)據(jù)安全,這會使他們的數(shù)據(jù)面臨可能的篡改或損壞。
好消息是,有許多具有成本效益的免費資源可以解決這些問題,公司可以求助于免費的威脅情報來源和聲譽良好的網(wǎng)絡(luò)安全框架,如MITRE、ATT和CK。此外,為了反映特定公司的行為和活動,AI可以針對用戶或?qū)嶓w行為進行培訓(xùn),這使系統(tǒng)能夠超越一般威脅情報數(shù)據(jù)——例如危害指標和文件的好壞特征——并查看特定于公司的詳細信息。
在安全方面,有許多解決方案可以成功地遏制數(shù)據(jù)泄露企圖,但僅有這些工具是不夠的,同樣重要的是,制定適當?shù)姆ㄒ?guī)、標準和內(nèi)部政策,從整體上挫敗旨在防止AI正確識別和阻止威脅的數(shù)據(jù)攻擊。正在進行的由政府發(fā)起的AI監(jiān)管談判以及MITRE提出的AI安全監(jiān)管框架是朝著正確方向邁出的一步。
人類智慧至高無上
AI能夠規(guī)避人類決策的時代還需要幾十年甚至幾個世紀的時間,這通常是一件積極的事情,但也有它的陰暗面,人類可以對AI的判斷或決定不屑一顧,這是一件好事,但這也意味著,以人為目標的威脅,如社會攻擊,仍然有效,例如,AI安全系統(tǒng)可能會在檢測到風(fēng)險后自動編輯電子郵件或網(wǎng)頁中的鏈接,但人類用戶也可以忽略或禁用這一機制。
簡而言之,我們對人類智能的最終依賴正在阻礙AI技術(shù)對抗AI輔助的網(wǎng)絡(luò)攻擊的能力,雖然威脅參與者不分青紅皂白地自動化新惡意軟件的生成和攻擊的傳播,但現(xiàn)有的AI安全解決方案旨在屈服于人類的決策,防止完全自動化的行動,特別是在AI的“黑匣子問題”的情況下。
就目前而言,推動力并不是實現(xiàn)一個完全可以獨立工作的AI網(wǎng)絡(luò)安全系統(tǒng),允許人類智能占上風(fēng)造成的漏洞可以通過網(wǎng)絡(luò)安全教育來解決,公司可以定期舉辦網(wǎng)絡(luò)安全培訓(xùn),以確保員工使用安全最佳實踐,并幫助他們更熟練地檢測威脅和評估事件。
順從人類的智慧是正確的,也是必要的,至少目前是這樣。盡管如此,重要的是要確保這不會成為網(wǎng)絡(luò)犯罪分子可以利用的漏洞。
建造和保護東西比摧毀它們更難。由于各種因素,使用AI對抗網(wǎng)絡(luò)威脅總是具有挑戰(zhàn)性的,包括建立信任的需要,使用數(shù)據(jù)進行ML訓(xùn)練時所需的謹慎,以及人類決策的重要性。網(wǎng)絡(luò)罪犯很容易忽視所有這些考慮,所以有時他們似乎占據(jù)了上風(fēng)。
盡管如此,這個問題并不是沒有解決方案,可以在標準和條例的幫助下建立信任,以及安全提供商在顯示其索賠記錄方面的認真努力,數(shù)據(jù)模型可以使用復(fù)雜的數(shù)據(jù)安全解決方案進行保護,與此同時,我們對人類決策的持續(xù)依賴可以通過充分的網(wǎng)絡(luò)安全教育和培訓(xùn)來解決。
惡性循環(huán)仍在運行,但我們可以找到希望,因為它也適用于相反的情況:隨著AI威脅的繼續(xù)演變,AI網(wǎng)絡(luò)防御也將不斷演變。