流行的AIGC項目構(gòu)成了嚴(yán)重的安全威脅
大型語言模型的進(jìn)步
AIGC如今越來越受歡迎,它使人們能夠以前所未有的方式創(chuàng)造、互動和消費內(nèi)容。隨著大型語言模型(例如GPT)的顯著進(jìn)步,AIGC系統(tǒng)現(xiàn)在擁有生成類似人類的文本、圖像甚至代碼的能力。集成了這些技術(shù)的開源項目的數(shù)量正在呈指數(shù)級增長。
例如,自從OpenAI公司七個月前首次推出ChatGPT以來,GitHub上現(xiàn)在有30000多個開源項目使用GPT-3.5系列的LLM。
盡管用戶對這些技術(shù)的需求激增,但GPT和LLM項目給使用它們的用戶帶來了各種安全風(fēng)險,其中包括信任邊界風(fēng)險、數(shù)據(jù)管理風(fēng)險、固有模型風(fēng)險以及一般安全問題。
AIGC安全風(fēng)險
早期采用AIGC或任何新生技術(shù)(特別是LLM),需要在整個軟件開發(fā)生命周期中進(jìn)行全面的風(fēng)險評估并遵守穩(wěn)健的安全實踐。通過對安全風(fēng)險給予應(yīng)有的關(guān)注,企業(yè)可以就是否以及如何采用AIGC解決方案做出明智的決定,同時堅持最高標(biāo)準(zhǔn)的審查和保護(hù)。
Rezilion公司漏洞研究總監(jiān)Yotam Perkal表示:“AIGC的應(yīng)用越來越普遍,但它還不成熟,而且極易存在風(fēng)險。除了固有的安全問題之外,個人和企業(yè)在沒有適當(dāng)安全護(hù)欄的情況下為這些AI模型提供了過度的訪問和授權(quán)。通過我們進(jìn)行的研究,旨在傳達(dá)使用不安全的AIGC和LLM的開源項目也具有較差的安全態(tài)勢。這些因素導(dǎo)致企業(yè)面臨重大風(fēng)險?!?/p>
從安全教育到安全意識
Rezilion公司的研究團(tuán)隊調(diào)查了GitHub上50個最受歡迎的AIGC項目的安全狀況。該研究利用開源安全基金會記分卡客觀地評估了LLM開源生態(tài)系統(tǒng),并強調(diào)了許多基于LLM的項目缺乏成熟度、基本安全最佳實踐的差距以及潛在的安全風(fēng)險。
這一調(diào)查結(jié)果突出了人們的擔(dān)憂,揭示了得分較低的非常新的和受歡迎的項目:
- 非常受歡迎,平均有15909顆星。
- 極度不成熟,平均時間為3.77個月。
- 安全狀況非常差,平均得分為4.60分(滿分為10分),以任何標(biāo)準(zhǔn)衡量都很低。例如,GitHub上最受歡迎的基于GPT的項目Auto-GPT,擁有超過13.8萬顆星,不到三個月的時間,記分卡得分為3.7。
對于AIGC系統(tǒng)的安全部署和操作,Rezilion公司建議采用以下最佳實踐和指南:教育團(tuán)隊了解采用任何新技術(shù)相關(guān)的風(fēng)險;評估和監(jiān)控與LLM和開源生態(tài)系統(tǒng)相關(guān)的安全風(fēng)險;實施穩(wěn)健的安全實踐,進(jìn)行徹底的風(fēng)險評估,并培養(yǎng)安全意識的企業(yè)文化。
雖然在采用AIGC模型及其生態(tài)系統(tǒng)方面存在重大的安全挑戰(zhàn),但AI技術(shù)具有強大的功能和能力,并且將會繼續(xù)發(fā)展下去。