英偉達的首席安全官:ChatGPT讓網(wǎng)絡安全變成“貓捉老鼠”的游戲
生成式人工智能對網(wǎng)絡安全團隊有好處嗎?自從去年11月ChatGPT推出以來,關于人工智能是否會使網(wǎng)絡威脅格局向有利于網(wǎng)絡攻擊者或防御者的方向發(fā)展一直存在著激烈的辯論。
最近,Nvidia(英偉達)公司的首席安全官、Nutanix公司的前網(wǎng)絡安全高級總監(jiān)David Reber在接受行業(yè)媒體的采訪時,分享了他對生成式人工智能和ChatGPT等工具將在2023年對網(wǎng)絡威脅格局產(chǎn)生影響的看法。
以下是行業(yè)媒體對David Reber的采訪實錄:
為什么需要采用人工智能來阻止人工智能驅(qū)動的網(wǎng)絡威脅?
Reber:了解網(wǎng)絡攻擊者的局限性可以深入了解他們的下一步行動。網(wǎng)絡攻擊者面臨的限制之一是采用專有技術進行大規(guī)模定制攻擊。
隨著生成式人工智能的技術進步,網(wǎng)絡攻擊者可以輕松地進行微調(diào)和針對性的攻擊。
網(wǎng)絡攻擊的速度和復雜性超過了人類的能力。這就是防御性人工智能發(fā)揮作用的地方。那么如何采用他們的工具來對付他們?這是一個永遠存在的“貓捉老鼠”的游戲。
在使用防御性人工智能對抗進攻性人工智能時,網(wǎng)絡安全團隊會面臨哪些挑戰(zhàn)?
Reber:十年前,人工智能行業(yè)轉向了“假定違約”策略。我們認識到,網(wǎng)絡攻擊者只需成功攻擊一次,而防御者必須每次都成功防御。
網(wǎng)絡攻擊者了解防御者的局限性:人力、監(jiān)管、競爭的優(yōu)先事項。隨著人們繼續(xù)面臨越來越多的商業(yè)網(wǎng)絡實踐監(jiān)管,正確使用網(wǎng)絡的需求變得更加迫切。
人工智能面臨的根本挑戰(zhàn)是信任。那么如何知道把人類的能力集中在其他地方是有效的呢?從根本上說,人們需要信任人工智能,然后將其實現(xiàn)自動化。
例如,我們乘坐自動駕駛汽車,但相信它能把我們送到目的地嗎?網(wǎng)絡攻擊者沒有規(guī)則和界限,也沒有法律監(jiān)督來防止出現(xiàn)這些問題。
首席信息安全官如何利用人工智能在某種程度上戰(zhàn)勝惡意人工智能的使用?
Reber:據(jù)估計,2022年全球擁有140億多臺物聯(lián)網(wǎng)設備。為了戰(zhàn)勝惡意人工智能,企業(yè)安全領導者需要確保業(yè)務安全,或者增加網(wǎng)絡攻擊的成本。雖然我們正處于生成式人工智能的形成階段,但可以采用傳統(tǒng)的拖延戰(zhàn)術。
首席信息安全官可以在網(wǎng)絡上創(chuàng)建一個更有趣的目標,并知道如何互動作為回報。其目標是為網(wǎng)絡攻擊制造更多的噪音,并讓他們在價值較低的數(shù)據(jù)上浪費更多的時間。例如將虛假數(shù)據(jù)偽裝成知識產(chǎn)權,這是一場欺騙之戰(zhàn)。
對ChatGPT有什么看法嗎?
Reber:它將使網(wǎng)絡安全民主化。在此之前,網(wǎng)絡攻擊受到規(guī)模和技術的限制。ChatGPT具有消除這一限制因素的潛力。
這將孕育出新一代的網(wǎng)絡攻擊者,而他們的限制因素現(xiàn)在被移除了。但這也是防御者預測未來的機會,因此需要了解他們的攻擊面中尚未探索的角落。
關于這個話題還有什么補充的嗎?
Reber:市場上充斥著利基解決方案。每個人都在努力尋找適合自己的下一代計算技術。在當前的經(jīng)濟形勢下,我們都需要找到少花錢多辦事的方法。這將導致更統(tǒng)一的技術堆棧和投資更少的解決方案和工具。
當我們應對網(wǎng)絡攻擊時,需要團結起來,形成一個生態(tài)系統(tǒng)。傳輸信息交換的互操作性是我們領先網(wǎng)絡攻擊者的方式,因此需要共享技能和知識,使我們能夠戰(zhàn)勝對手。