89% 的企業(yè)生成式AI使用未被IT部門察覺,暴露數據安全隱患
企業(yè)當前要么正在采用生成式AI(GenAI)解決方案,要么正在評估如何將這些工具整合到業(yè)務計劃中,或者兩者兼而有之。為了推動明智的決策和有效的規(guī)劃,獲取硬數據至關重要,然而此類數據卻出人意料地稀缺。
LayerX發(fā)布的“2025年企業(yè)生成式AI數據安全報告”為工作場所中AI工具的實際應用提供了前所未有的洞察,同時揭示了關鍵的安全漏洞。該報告基于LayerX企業(yè)客戶的真實遙測數據,是少數能夠詳細說明員工實際使用生成式AI情況的可靠來源之一。
例如,報告揭示,近90%的企業(yè)AI使用發(fā)生在IT部門的可視范圍之外,這使企業(yè)面臨數據泄露和未經授權訪問等重大風險。
以下我們將分享報告中的一些關鍵發(fā)現。閱讀完整報告以完善和增強您的安全策略,利用數據驅動的決策進行風險管理,并推動資源投入以加強生成式AI的數據保護措施。
企業(yè)生成式AI使用尚不普遍
盡管生成式AI的熱潮可能會讓人覺得整個勞動力已經將辦公室操作轉向了生成式AI,但LayerX發(fā)現實際使用情況略顯冷淡。大約15%的用戶每天都會訪問生成式AI工具。雖然這一比例不可忽視,但并非主流。
不過,我們認同LayerX的分析,并預測這一趨勢將迅速加速,尤其是因為目前有50%的用戶每隔一周使用一次生成式AI。
此外,報告發(fā)現,39%的常規(guī)生成式AI工具用戶是軟件開發(fā)者。這意味著通過生成式AI泄露源代碼和專有代碼的風險最高,同時在代碼庫中使用有風險的代碼也存在隱患。
生成式AI如何使用?誰也不知道
由于LayerX嵌入了瀏覽器中,因此該工具能夠觀察到“影子SaaS”的使用情況。這意味著他們可以看到員工使用未經企業(yè)IT批準的工具或通過非企業(yè)賬戶訪問這些工具。
盡管像ChatGPT這樣的生成式AI工具被用于工作目的,但近72%的員工通過個人賬戶訪問它們。即使員工通過企業(yè)賬戶訪問,也僅有約12%使用單點登錄(SSO)。因此,近90%的生成式AI使用對企業(yè)來說是不可見的。這讓企業(yè)對“影子AI”應用以及未經授權在AI工具上共享企業(yè)信息的情況一無所知。
50%的粘貼行為涉及企業(yè)數據
還記得帕累托原則嗎?在這種情況下,雖然并非所有用戶每天都使用生成式AI,但使用生成式AI的用戶往往會頻繁粘貼潛在機密信息。
LayerX發(fā)現,在向生成式AI工具提交數據的用戶中,平均每天發(fā)生近4次企業(yè)數據粘貼行為。這可能包括商業(yè)信息、客戶數據、財務計劃、源代碼等。
企業(yè)如何規(guī)劃生成式AI的使用?
報告中的發(fā)現表明,急需新的安全策略來管理生成式AI風險。傳統(tǒng)安全工具無法應對現代以AI驅動的、基于瀏覽器的工作環(huán)境。它們缺乏在源頭(即瀏覽器)檢測、控制和保護AI交互的能力。
基于瀏覽器的安全解決方案能夠提供對AI SaaS應用程序、ChatGPT之外未知的AI應用程序、啟用AI的瀏覽器擴展等的可見性。這種可見性可用于部署針對生成式AI的數據丟失防護(DLP)解決方案,使企業(yè)能夠安全地將生成式AI納入其計劃,為未來的業(yè)務保駕護航。
如需了解更多關于生成式AI使用情況的數據,請閱讀完整報告。