英國網(wǎng)絡(luò)安全機(jī)構(gòu)警告AI大語言模型風(fēng)險(xiǎn)
英國國家網(wǎng)絡(luò)安全中心(NCSC)概述了為企業(yè)集成人工智能驅(qū)動(dòng)的大語言模型(LLM)的風(fēng)險(xiǎn),并警告開發(fā)人員仍未完全掌握系統(tǒng)的弱點(diǎn)和漏洞。
在一篇博文中,該安全機(jī)構(gòu)承認(rèn),自2022年OpenAI的ChatGPT發(fā)布以來,大語言模型一直吸引著全球的興趣和好奇心,導(dǎo)致所有行業(yè)的組織都在研究將該技術(shù)用于他們的業(yè)務(wù)。
然而,作為一個(gè)快速發(fā)展的領(lǐng)域,NCSC專家發(fā)現(xiàn),在一個(gè)不確定的市場中模型是不斷更新的。這可能意味著一家現(xiàn)今提供服務(wù)的初創(chuàng)企業(yè)可能在兩年后就不復(fù)存在了。
因此,使用大語言模型構(gòu)建業(yè)務(wù)的組織需要考慮這樣一個(gè)事實(shí),即模型可能會(huì)在所使用的API背后發(fā)生變化,從而導(dǎo)致集成的關(guān)鍵部分在某個(gè)時(shí)候停止存在。
該機(jī)構(gòu)進(jìn)一步指出,大語言模型在嵌入組織的業(yè)務(wù)流程時(shí)可能會(huì)帶來一定的風(fēng)險(xiǎn),研究人員發(fā)現(xiàn)大語言模型“本質(zhì)上無法區(qū)分指令和為幫助完成指令而提供的數(shù)據(jù)”。
NCSC舉例稱,如果輸入的提示結(jié)構(gòu)正確,銀行使用的AI聊天機(jī)器人可能會(huì)被騙向攻擊者匯款或進(jìn)行未經(jīng)授權(quán)的交易。
“使用大語言模型構(gòu)建業(yè)務(wù)的組織需要小心,就像他們使用處于測試階段的產(chǎn)品或代碼庫一樣。”NCSC補(bǔ)充道。