如果當(dāng)前的 AI 炒作是死胡同怎么辦?
如果我們面對人工智能的死胡同,網(wǎng)絡(luò)安全行業(yè)將繼續(xù)嚴(yán)重依賴傳統(tǒng)方法,尤其是人為驅(qū)動的方法。不過,這不會像往常一樣。
正如我在之前關(guān)于初學(xué)者網(wǎng)絡(luò)安全未來主義的專欄中所討論的那樣,我們正在應(yīng)用未來研究中常用的方法和方法,尤其是水平掃描和場景規(guī)劃,以探索未來場景,了解 AI(例如 LLM)如何影響未來的安全操作。
快速重申一下,地平線掃描嚴(yán)格來說并不是預(yù)測未來。相反,它是關(guān)于及早發(fā)現(xiàn)微弱信號以識別新興趨勢的驅(qū)動因素。我們并不是要確定一個單一的預(yù)期未來。相反,我們描述了一系列可能的未來(四種未來模型)。然后,規(guī)劃人員可以使用這些未來來進(jìn)一步開發(fā)場景,以幫助進(jìn)行風(fēng)險評估、戰(zhàn)略規(guī)劃或類似任務(wù)。
AI 未來 #1:死胡同 AI
炒作人的工作是讓每個人都離開座位,在舞池里盡情享受。
風(fēng)味風(fēng)味
本周我們設(shè)想了一個我們稱之為“死胡同 AI”的未來,其中 AI 無法實現(xiàn)圍繞它的炒作。我們考慮了這種未來的兩種可能情況。兩者都有相似的近期和中期結(jié)果,因此我們可以一起討論。
場景 #1: AI 結(jié)束了另一種炒作,如加密貨幣、NFT 和Metaverse。
場景 #2: AI 被過度炒作,由此產(chǎn)生的失望導(dǎo)致資金撤出和新的 AI 寒冬。
在一個死胡同的人工智能未來,目前圍繞人工智能的炒作最終被證明是沒有根據(jù)的。隨著技術(shù)局限性現(xiàn)實的出現(xiàn),對 AI 的熱情和投資逐漸減少。AI 社區(qū)經(jīng)歷了幻滅,導(dǎo)致新的 AI 寒冬,資金和研究顯著減少。
請注意,未來并不意味著例如機器學(xué)習(xí)根本沒有有益的應(yīng)用,或者人工智能在理論上是不可行的。這意味著由于各種限制和制約,當(dāng)前的人工智能進(jìn)步浪潮不會逐步過渡到成熟的通用人工智能 (AGI),也就是技術(shù)奇點。
分析
我們將討論可能導(dǎo)致 AI 走向死胡同的關(guān)鍵外部因素。我們將在可能的情況下引用強信號和弱信號。您可能會注意到許多因素是多么緊密地交織在一起,并且您還將開始看到在我們整個系列中有些因素將如何在略有不同的環(huán)境中重新出現(xiàn)。
支持死胡同的 AI 未來的信號
我們將在下面分析一些可能表明 AI 走投無路的信號和趨勢。
經(jīng)濟(jì)因素
投資者正涌入生成式人工智能,早期創(chuàng)業(yè)投資者在 2022 年投資了 2.2B 美元(相比之下,整個歐洲為 5.8B 美元)。 但是,如果 AI 無法提供預(yù)期的投資回報,那么對 AI 研發(fā)的進(jìn)一步資助將是災(zāi)難性的。
例如,風(fēng)險投資公司 Andreessen-Horowitz (a16z) 發(fā)布了一份報告,指出一家典型的使用大型語言模型的初創(chuàng)公司將 80% 的資本用于計算成本。報告作者還指出,單個 GPT-3 培訓(xùn)成本在 50 萬美元到 460 萬美元之間,具體取決于硬件假設(shè)。
矛盾的是,投資這些登月計劃的資金并不一定能保證經(jīng)濟(jì)上的成功或可行性,谷歌最近泄露的一份報告稱,沒有護(hù)城河可以阻止普遍和開源采用這類模型。其他公司,如 Snapchat,過早地推出產(chǎn)品并匆匆上市,結(jié)果卻一敗涂地。
如此高昂的開發(fā)成本,加上缺乏盈利的應(yīng)用,不會讓投資者或股東高興。它還導(dǎo)致大規(guī)模的資本破壞,只有少數(shù)云和硬件供應(yīng)商高興。
與此同時,相當(dāng)一部分企業(yè)領(lǐng)導(dǎo)者對積極采用人工智能的呼聲很高,中國藍(lán)光標(biāo)智能通信集團(tuán)公司計劃用生成式人工智能全面取代外部文案和編輯,IBM 估計高達(dá) 50% 的常規(guī)工作可以自動化。如果這些假設(shè)被證明是錯誤的,許多企業(yè)將被識破并面臨痛苦的調(diào)整。
一些批評家已經(jīng)敦促謹(jǐn)慎行事,因為存在相當(dāng)大的尚未量化的風(fēng)險,例如關(guān)于生成藝術(shù)作品的版權(quán)。生成人工智能經(jīng)濟(jì)的現(xiàn)實世界經(jīng)驗也參差不齊。fiverr 或 Upwork 等自由職業(yè)服務(wù)的客戶報告說,使用生成模型公然創(chuàng)建的低質(zhì)量工作 激增。
最后,對于最近剛剛向我們出售加密貨幣、NFT 和 Metaverse 的同一企業(yè)的另一項新的、革命性的技術(shù)創(chuàng)新,存在相當(dāng)大的懷疑和可以理解的疲勞。
實際應(yīng)用進(jìn)展有限
雖然我們在狹義人工智能應(yīng)用方面取得了重大進(jìn)展,但我們還沒有看到真正的通用人工智能 (AGI) 取得進(jìn)展,盡管毫無根據(jù)地聲稱它可能以某種方式突然出現(xiàn)。生成式 AI 模型顯示出不可思議的現(xiàn)象,但它們是完全可以解釋的,包括它們的局限性。
在大量關(guān)于人工智能如何使?fàn)I銷、開發(fā)和設(shè)計中的一切自動化的文章之間,也有越來越多的證據(jù)表明,這類模型的應(yīng)用領(lǐng)域可能非常狹窄?,F(xiàn)實場景中的自動化需要高度的準(zhǔn)確性和精確性,例如,在阻止網(wǎng)絡(luò)釣魚嘗試時, LLM 并非為此而設(shè)計。
一些技術(shù)專家已經(jīng)表達(dá)了對當(dāng)前模型實際功能與描述方式以及更重要的是銷售方式的巨大差異的擔(dān)憂,并且已經(jīng)對新的 AI 寒冬敲響了警鐘。
人工智能在理論上擁有巨大的前景。但由于可行性問題、缺乏明確的用例或無法有效擴展解決方案,實際應(yīng)用可能達(dá)不到炒作的程度。
隱私和道德問題
另一組不斷增長的信號是對隱私、道德和人工智能系統(tǒng)的潛在濫用的擔(dān)憂日益增加。令人驚訝的是,有很多聲音主張更嚴(yán)格的監(jiān)管,這可能會阻礙 AI 的開發(fā)和采用,從而導(dǎo)致 AI 陷入死胡同。
Geoffrey Hinton 是人工神經(jīng)網(wǎng)絡(luò)的先驅(qū)之一,最近辭去了他在谷歌的工作,以便能夠在沒有任何利益沖突的情況下警告世界他認(rèn)為不受控制的人工智能的風(fēng)險和危險。白宮召集谷歌、微軟、OpenAI 和 Anthropic 的高管開會,討論人工智能的未來。最大的驚喜可能是 CEO 要求接受監(jiān)管,OpenAI 的 Sam Altman 敦促美國國會這樣做。一篇文章甚至主張我們需要評估控制此類技術(shù)的人們的信念,表明他們可能更愿意接受存在的風(fēng)險。
我們場景中的悲劇是,圍繞人工智能的夸張實際上可能會得出關(guān)于人工智能潛在濫用的倫理和社會影響的結(jié)論,從而導(dǎo)致扼殺其發(fā)展的嚴(yán)格監(jiān)管。隱私問題、工作崗位流失和“deepfake”技術(shù)等問題可能會引發(fā)強烈反對,促使政府實施嚴(yán)格限制,盡管實際上該技術(shù)的影響很小或反復(fù)出現(xiàn)。
如果 AI 系統(tǒng)被視為不可信,無論決策制定中引人注目的失敗和偏見是真實的還是想象的,公眾的看法都可能會反對 AI。
對環(huán)境造成的影響
AI 的前景不僅僅基于自動化——它還必須價格低廉、隨時可用且越來越可持續(xù)。人工智能在技術(shù)上可能是可行的,但它可能不經(jīng)濟(jì),甚至對環(huán)境有害。
大量可用數(shù)據(jù)表明,像法學(xué)碩士這樣的人工智能技術(shù)對環(huán)境有相當(dāng)大的影響。最近的一項研究“讓 AI 不那么“渴”:揭開和解決 AI 模型的秘密水足跡”計算得出,一次包含 20-50 個問題的典型對話會消耗 500 毫升水,并且可能需要多達(dá) 700,000 升水水只是為了訓(xùn)練 GPT-3。
斯坦福大學(xué)以人為本的人工智能研究所 (HAI) 2023 年人工智能指數(shù)報告得出的結(jié)論是,GPT3 的單次訓(xùn)練排放了相當(dāng)于 502 噸的二氧化碳,即使是最節(jié)能的模型 BLOOM,排放的碳也高于平均水平美國人每年使用量(BLOOM 為 25 噸,而人類為 18 噸)。
我們才剛剛開始 LLM 的時代,毫無疑問,效率會有所提高,但必須是實質(zhì)性的。預(yù)計較新的模型將變得更大,而采用雖然在歷史上是無與倫比的,但仍才剛剛開始。如果要實現(xiàn)超自動化和按需虛擬助手的承諾,能源消耗將不可持續(xù)地增長。問題是高耗能人工智能模型將如何在低碳經(jīng)濟(jì)中蓬勃發(fā)展?
對安全運營的影響
如果當(dāng)前的 AI 技術(shù)浪潮被嚴(yán)重夸大并被證明是死胡同,那么對安全運營的影響可能如下:
傳統(tǒng)方法將重新成為人們關(guān)注的焦點。
由于人工智能未能兌現(xiàn)其智能自動化和分析的承諾,網(wǎng)絡(luò)安全運營將繼續(xù)依賴人為驅(qū)動的流程和傳統(tǒng)的安全措施。
這意味著安全專業(yè)人員將不得不不斷完善現(xiàn)有技術(shù),例如零信任和網(wǎng)絡(luò)衛(wèi)生。他們還必須繼續(xù)創(chuàng)建和策劃源源不斷的最新檢測、行動手冊和威脅情報,以跟上不斷變化的威脅形勢。
安全運營管理能力,尤其是跨異構(gòu)基礎(chǔ)設(shè)施的檢測和響應(yīng)等工作流程的編排,仍然很難做好,而且成本很高。
中型組織尤其需要更多地依賴服務(wù)來縮小由此產(chǎn)生的技能和人員差距。新的服務(wù)產(chǎn)品和模型將會發(fā)展,尤其是在自動化和分析需要專業(yè)知識和技能的情況下。
從好的方面來說——至少威脅形勢也只會按照人類的步伐發(fā)展。
自動化將趨于平穩(wěn)。
如果沒有更多的智能機器自動化,組織將繼續(xù)與網(wǎng)絡(luò)安全領(lǐng)域的人才短缺作斗爭。對于分析師來說,手動工作量仍然很高。組織將需要尋找其他方法來簡化操作。
像 SOAR 這樣的自動化方法將仍然非常手動,并且仍然基于靜態(tài)和預(yù)配置的劇本。無代碼和低代碼自動化可能有助于使自動化更容易和可訪問,但自動化本質(zhì)上仍將是腳本化和愚蠢的。
然而,即使是今天的 LLM 能力水平也足以自動化基本的日志解析、事件轉(zhuǎn)換和一些分類用例。到 2024 年底,這些功能將在幾乎所有安全解決方案中無處不在。
威脅檢測和響應(yīng)將保持緩慢
在沒有人工智能驅(qū)動的解決方案的情況下,威脅檢測和響應(yīng)時間只能略有改善。減少黑客必須利用漏洞并造成損害的機會窗口將意味著在操作上變得更加有效。組織將不得不專注于增強其現(xiàn)有系統(tǒng)和流程,以最大程度地減少檢測和響應(yīng)時間緩慢的影響。自動化將更有選擇性但更積極地集成。
威脅情報將繼續(xù)難以管理。
由于缺乏 AI 驅(qū)動的分析,供應(yīng)商將繼續(xù)難以收集和管理威脅情報,并且對于大多數(shù)最終用戶而言,更具戰(zhàn)略性地使用威脅情報仍然具有挑戰(zhàn)性。安全團(tuán)隊將不得不依靠手動流程來收集、分析威脅信息并將其背景化,這可能會導(dǎo)致對新威脅和不斷演變的威脅的認(rèn)識和響應(yīng)出現(xiàn)延遲。必須使用更簡單的方法來增強傳播和分析大量威脅情報的能力,例如可視化和圖形分析。集體和協(xié)作情報共享也需要重新審視和修改。
重新強調(diào)人類的專業(yè)知識
如果人工智能無法交付,人類專業(yè)知識在網(wǎng)絡(luò)安全運營中的重要性將變得更加關(guān)鍵。組織將需要繼續(xù)優(yōu)先考慮招聘、培訓(xùn)和留住熟練的網(wǎng)絡(luò)安全專業(yè)人員,以保護(hù)他們的資產(chǎn)并將風(fēng)險降至最低。安全專家的競爭將繼續(xù)激烈。需要開發(fā)新的方法和框架,以更好地捕捉和維護(hù)稀有的團(tuán)隊專業(yè)知識,改進(jìn)知識管理,并更好地跨團(tuán)隊和跨領(lǐng)域合作。
結(jié)論
如果我們面對人工智能的死胡同,網(wǎng)絡(luò)安全行業(yè)將繼續(xù)嚴(yán)重依賴傳統(tǒng)方法,尤其是人為驅(qū)動的方法。不過,這不會像往常一樣。
即使是我們聽到的一些不太令人印象深刻的用例也已經(jīng)解決了一些艱巨的挑戰(zhàn)。從將人類語言查詢即時翻譯成 SQL 語法,加快經(jīng)驗豐富的開發(fā)人員編碼的速度,或?qū)W(wǎng)絡(luò)事件進(jìn)行分類,LLM 的影響已經(jīng)顯現(xiàn)。這是一股能托起所有船只的浪潮——既包括防御者,也包括攻擊者。
但更重要的是進(jìn)展是否會繼續(xù)。除了技術(shù)限制和局限性之外,一系列其他驅(qū)動因素和趨勢也會影響我們是否會經(jīng)歷一個新的 AI 寒冬。僅憑對人工智能可能帶來的風(fēng)險的認(rèn)識,從社會不穩(wěn)定到自主 Killbots,就足以引發(fā)監(jiān)管打壓,從而扼殺任何進(jìn)一步的進(jìn)展。過早設(shè)定過高的期望也可能導(dǎo)致足夠的失望和幻滅,從而迎來 AI 寒冬。
炒作所造成的損害遠(yuǎn)不止煩人。它可能導(dǎo)致 FOMO 并導(dǎo)致經(jīng)濟(jì)損失。它還可以過早地扼殺其他有前途的技術(shù)。
概率:0.25 不太可能
雖然在考慮 AI 和網(wǎng)絡(luò)安全運營的未來時出現(xiàn)的問題有很多未知數(shù),但我相信目前圍繞 AI 和生成 AI 的炒作至少有一些事實依據(jù)。
也有很多有識之士看好生成式人工智能,其他人工智能方法仍然是主流。我們已經(jīng)在一些地方看到了好處。有足夠多的萌芽表明這是一個真正的突破。但我認(rèn)為這是進(jìn)化,而不是革命。如果您一直在使用 Grammarly、一個 AI 寫作助手、大多數(shù)編程 IDE 甚至只是您的手機來發(fā)送消息,您就會體驗到這種緩慢的進(jìn)化趨勢。不同之處在于它首次準(zhǔn)備好生產(chǎn)。我們現(xiàn)在可以開始構(gòu)建真正有趣的東西,看看當(dāng)我們停止嘗試構(gòu)建更快的馬時會發(fā)生什么,正如亨利福特打趣說如果他問他的客戶他會怎么做。
盡管如此,炒作的感覺并沒有錯。有很多善意但不是很技術(shù)的評論員只是在做他們的工作要求,相當(dāng)多的嫁接者,而不是少數(shù)絕望的企業(yè)和投資者,他們都抓住每一個主張,無論多么投機或未經(jīng)證實的。
所以我的估計是,這兩個未來,即圍繞生成人工智能的炒作沒有真正的基礎(chǔ),或者炒作將導(dǎo)致新的人工智能冬天,不太可能發(fā)生。
作者:奧利弗·羅奇福德