超四分之一企業(yè)禁止員工使用生成式人工智能
根據(jù)思科2024年數(shù)據(jù)隱私基準研究,超過四分之一(27%)的組織出于隱私和數(shù)據(jù)安全風險的考慮,暫時禁止在員工中使用生成式人工智能。
大多數(shù)組織還對此類工具實施了控制。近三分之二(63%)的受訪者對可以輸入的數(shù)據(jù)進行了限制,61%的受訪者對員工可以使用哪些GenAI工具進行了限制。
盡管有這些限制,許多組織承認已經(jīng)將敏感數(shù)據(jù)輸入到生成人工智能應用程序中。其中包括內(nèi)部流程的信息(62%)、員工姓名或信息(45%)、有關公司的非公開信息(42%)以及客戶名稱或信息(38%)。
大多數(shù)受訪者(92%)認為生成式人工智能是一種全新的技術,帶來新的挑戰(zhàn),需要采用新技術來管理數(shù)據(jù)和風險。
受訪者對人工智能技術最大的擔憂是:
- 可能會損害組織的法律和知識產(chǎn)權(69%)
- 輸入的信息可能會公開泄漏或與競爭對手共享(68%)
- 返回給用戶的信息可能是錯誤的(68%)
- 對人類有害(63%)
- 可能會代替其他員工(61%)
- 可能會代替自己(58%)
員工的人工智能賬戶泄漏和濫用也是企業(yè)面臨的重大風險。根據(jù)卡巴斯基的調(diào)查,大量被盜ChatGPT賬戶在暗網(wǎng)熱銷,對用戶和公司構成重大威脅。
此外,ChatGPT等流行大語言模型的訓練數(shù)據(jù)和生成數(shù)據(jù)還可能存在違反GDPR等數(shù)據(jù)保護法規(guī)的風險。
91%的安全和隱私專業(yè)人士承認,他們需要采取更多措施,讓客戶放心使用人工智能的數(shù)據(jù)。
然而,思科的調(diào)研顯示,下列幫助建立AI信任的工作中沒有任何一項獲得超過50%的受訪者的采用:
- 解釋AI應用如何工作50%
- 確保流程中有人員干預50%
- 制定AI道德管理計劃49%
- 審計AI應用偏差33%
思科首席法務官DevStahlkopf評論道:“超過90%的受訪者認為人工智能需要新技術來管理數(shù)據(jù)和風險。AI安全治理對建立客戶信任至關重要。”