網(wǎng)絡(luò)犯罪史上的AI時代已經(jīng)到來
人工智能領(lǐng)域剛剛發(fā)生了劃時代的發(fā)展,如果你從事網(wǎng)絡(luò)安全工作,你很快就會意識到它的影響。我自己的專業(yè)知識主要來自網(wǎng)絡(luò)安全,但在過去的幾年里,我一直致力于各種研究,其中包括利用各種工具了解人工智能。
你們中的許多人也將對人工智能有越來越多的認(rèn)識。到目前為止,大多數(shù)人都至少嘗試過ChatGPT,這是一種很棒的基于文本的聊天機器人AI,能夠?qū)崟r交互,并擁有比歷史上任何人類都學(xué)識淵博。這已經(jīng)給網(wǎng)絡(luò)安全帶來了一些問題,因為這種AI的各種功能可以通過API(應(yīng)用程序編程接口)以非常低的成本被調(diào)用。
ChatGPT和其他商業(yè)人工智能平臺的濫用雖然受到政策的限制,但仍然需要首先檢測到任何不道德或非法的使用。這些AI不會故意以違反任何法律為目的,但那些沒有任何道德規(guī)范的AI卻在忙于尋找規(guī)避規(guī)則的方法。
在我解釋它是如何發(fā)生的之前,讓我先跳轉(zhuǎn)到結(jié)局。想象一下,如果網(wǎng)絡(luò)犯罪分子獲得的不是一個龐大的數(shù)據(jù)中心,而是像ChatGPT 3.5或4.0那樣強大的人工智能,能夠在一臺獨立的機器上運行一個完全獨立的實例,在那里他們可以決定它遵守什么規(guī)則或政策,會發(fā)生什么?
從技術(shù)上講,網(wǎng)絡(luò)犯罪分子重復(fù)使用這項工作是非法的,但遺憾的是,在多方努力下,事實證明,可以采用具有ChatGPT 3.5能力的人工智能模型(一種需要大規(guī)模數(shù)據(jù)中心才能運行其基本功能的人工智能),創(chuàng)建一個更小、更高效的版本,從而超越原版本(在迄今為止進行的少量測試中)。
以下是發(fā)生的事情:
我們早就被警告過,一旦人工智能到來,它的發(fā)展速度將是指數(shù)級的。
斯坦福大學(xué)研究團隊的一組研究人員只使用了175個不同的手動創(chuàng)建任務(wù)(自我指導(dǎo)種子任務(wù)),并將這些任務(wù)與ChatGPT 3.5(感興趣的人可以看DaVinci版本)的API連接結(jié)合使用,他們能夠進入自動生成的循環(huán),直到達到52000個對話的樣本大小。
然后,他們將這些樣本輸入到一個單獨的人工智能模型(Metas Llama 7B)中,并對其進行微調(diào)。到目前為止,該模型能夠與原始模型進行有效競爭,而衍生模型仍然需要一些強大的云計算(但只需要運行GPT的一小部分)。
上述執(zhí)行過程以小時為單位。
值得注意的是,這些任務(wù)僅被允許用于研究目的,因為OpenAI的各種條款和條件禁止使用GPT的輸出來創(chuàng)建競爭模型。
隨著這一成果的公開,研究人員公布了所有的關(guān)鍵數(shù)據(jù)。他們將由此產(chǎn)生的人工智能聊天機器人模型稱為Alpaca 7B。
在對這一結(jié)果的可能性感到興奮的同時,更多的人致力于研究該模型可以被進一步壓縮的程度。所使用的過程被稱為LoRA(Low-Rank Adaptation,低秩自適應(yīng)),它所要做的是在每一個方面進行降維——例如,消除冗余特征,簡化識別特征,以及在許多情況下,將大量多維公式網(wǎng)格簡化為單個數(shù)字。
這種壓縮所做的是使模型變得很小,據(jù)說它可以在Raspberry Pi這樣小的東西上運行(正如免責(zé)聲明所說,出于研究目的)。
盡管人們對壓縮能走多遠以及在短期內(nèi)可能繼續(xù)具有什么依賴性產(chǎn)生了疑問,但這一事件在網(wǎng)絡(luò)安全背景下的影響是巨大的。
有證據(jù)表明(截至目前),盜竊和重新利用功能強大的人工智能模型不僅使網(wǎng)絡(luò)犯罪分子唾手可得,而且能夠通過非常小且便宜的硬件進行。
這意味著,作為一個行業(yè),我們可以不必依靠大型人工智能公司的政策和控制來防止人工智能的惡意使用?,F(xiàn)在,世界各地精明的網(wǎng)絡(luò)犯罪分子都能夠竊取和重新利用人工智能,直到幾周前,我們還認(rèn)為所需計算資源的規(guī)模和成本太高可能會阻止這種情況的發(fā)生。
現(xiàn)在開始鎖定你的系統(tǒng)吧,因為到了2023年,我們必須加強我們的數(shù)字防御,并為網(wǎng)絡(luò)安全中最新的人工智能驅(qū)動的挑戰(zhàn)做好準(zhǔn)備,事關(guān)生死。