思考:AI和機器學(xué)習(xí)對云應(yīng)用的安全產(chǎn)生了何種影響?
正如其他許多新興技術(shù)一樣,AI是一把雙刃劍,它對于云計算的安全影響是雙重的:這項技術(shù)可以使工作負載變得更加安全,但也可能會為新的威脅打開大門。
出現(xiàn)這種分歧的部分原因是,AI和機器學(xué)習(xí)正融入到主要的公有云平臺中。云供應(yīng)商和第三方供應(yīng)商提供了一系列針對新手和經(jīng)驗豐富的數(shù)據(jù)科學(xué)家的AI服務(wù),但其中一些很可能會帶來新的機器學(xué)習(xí)安全挑戰(zhàn)。此外,一些供應(yīng)商還提供依賴AI識別潛在危險的安全服務(wù)。
大量的AI和機器學(xué)習(xí)安全工具以及潛在的威脅可能最終會淹沒用戶,因為大多數(shù)組織才剛剛開始涉足這些技術(shù)。四個專家提示,供應(yīng)商需要讓用戶盡快了解云計算、安全和AI之間的相互作用。
云供應(yīng)商將AI添加到安全工具中
企業(yè)無法直接訪問AI在云計算中的一些最有趣的應(yīng)用,因為這些算法被嵌入到托管的安全服務(wù)中。這些工具通常有兩種形式。一種會使用機器學(xué)習(xí)掃描用戶記錄來識別和分類敏感信息。那些主流云提供商和第三方安全公司,如FixStream、Loom Systems、Devo和ScienceLogic,都提供相應(yīng)服務(wù)。
第二種變體使用機器學(xué)習(xí)來檢測威脅。云安全服務(wù),如Amazon GuardDuty和微軟Azure Sentinel,利用供應(yīng)商龐大的網(wǎng)絡(luò)來識別常見的威脅,并提醒管理員潛在的風(fēng)險。
然而,來自公有云供應(yīng)商的工具有一個主要缺點:它們不能在其他供應(yīng)商的云上工作。對于希望跨多云體系結(jié)構(gòu)實現(xiàn)統(tǒng)一安全狀態(tài)的組織來說,這可能是個問題。
由機器學(xué)習(xí)支持的威脅
安全專家警告稱,希望一直使用AI和機器學(xué)習(xí)的人,以及計劃將其用于邪惡目的的人之間,存在一場軍備競賽。隨著這些技術(shù)的進步,惡意者可能會使用機器學(xué)習(xí)來應(yīng)對網(wǎng)絡(luò)防御,破壞檢測模型,從而更快地發(fā)現(xiàn)漏洞,而不是修補漏洞。
鑒于機器學(xué)習(xí)背后需要依賴于大量的數(shù)據(jù),今天大部分的工作必須依托于云。公司可以快速地提供資源來處理他們的計算需求。然而,隨著公司收集有關(guān)用戶行為的數(shù)據(jù),培訓(xùn)和運行模型所需的數(shù)據(jù)可能會增加隱私方面的擔(dān)憂。為了降低這些風(fēng)險,公司可以匿名化用戶數(shù)據(jù),因此他們將不得不繼續(xù)了解數(shù)據(jù)駐留要求和其他合規(guī)規(guī)定。
在未來,當(dāng)AI和機器學(xué)習(xí)工具越來越受歡迎時,云供應(yīng)商也可能會采取更多措施,將安全特性直接構(gòu)建到它們的AI和機器學(xué)習(xí)工具中。例如,谷歌最近添加了TensorFlow Privacy,這是其流行的TensorFlow機器學(xué)習(xí)框架的一個變體。它使用不同的隱私技術(shù)來提高模型的安全性。
通過自動化實現(xiàn)機器學(xué)習(xí)安全實踐
公有云非常適合快速擴展,但是大規(guī)模的操作會帶來復(fù)雜性。組織可能難以監(jiān)視由其資源生成的大量日志,以及分布在其帳戶上的大量用戶。未能監(jiān)視這些活動還可能會導(dǎo)致漏洞。
當(dāng)組織刪除盡可能多的手工步驟時,就可以更好地處理這些激增的信息。AI和機器學(xué)習(xí)可以使這些努力更進一步,以實現(xiàn)自動化。
不過......
AI不是全能鑰匙
從來沒有一種技術(shù)會是應(yīng)對安全威脅的萬靈藥,AI當(dāng)然不例外,盡管許多組織都希望它是。對于初學(xué)者來說,算法的結(jié)果只取決于設(shè)計和數(shù)據(jù)。他們也可能被操縱和歪曲。當(dāng)這些技術(shù)出現(xiàn)時,組織需要意識到它們的局限性。
更重要的是,適當(dāng)?shù)木W(wǎng)絡(luò)清潔始于公司里的人,而不是技術(shù)。AI和機器學(xué)習(xí)可以加強安全方面的努力,但企業(yè)應(yīng)該首先關(guān)注如何教育員工進行正確的安全實踐。