自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

超四分之一企業(yè)禁止員工使用生成式人工智能

人工智能 應用安全
根據(jù)思科2024年數(shù)據(jù)隱私基準研究,超過四分之一(27%)的組織出于隱私和數(shù)據(jù)安全風險的考慮,暫時禁止在員工中使用生成式人工智能。

根據(jù)思科2024年數(shù)據(jù)隱私基準研究,超過四分之一(27%)的組織出于隱私和數(shù)據(jù)安全風險的考慮,暫時禁止在員工中使用生成式人工智能。

大多數(shù)組織還對此類工具實施了控制。近三分之二(63%)的受訪者對可以輸入的數(shù)據(jù)進行了限制,61%的受訪者對員工可以使用哪些GenAI工具進行了限制。

盡管有這些限制,許多組織承認已經(jīng)將敏感數(shù)據(jù)輸入到生成人工智能應用程序中。其中包括內(nèi)部流程的信息(62%)、員工姓名或信息(45%)、有關公司的非公開信息(42%)以及客戶名稱或信息(38%)。

大多數(shù)受訪者(92%)認為生成式人工智能是一種全新的技術,帶來新的挑戰(zhàn),需要采用新技術來管理數(shù)據(jù)和風險。

受訪者對人工智能技術最大的擔憂是:

  • 可能會損害組織的法律和知識產(chǎn)權(69%)
  • 輸入的信息可能會公開泄漏或與競爭對手共享(68%)
  • 返回給用戶的信息可能是錯誤的(68%)
  • 對人類有害(63%)
  • 可能會代替其他員工(61%)
  • 可能會代替自己(58%)

員工的人工智能賬戶泄漏和濫用也是企業(yè)面臨的重大風險。根據(jù)卡巴斯基的調(diào)查,大量被盜ChatGPT賬戶在暗網(wǎng)熱銷,對用戶和公司構成重大威脅。

此外,ChatGPT等流行大語言模型的訓練數(shù)據(jù)和生成數(shù)據(jù)還可能存在違反GDPR等數(shù)據(jù)保護法規(guī)的風險。

91%的安全和隱私專業(yè)人士承認,他們需要采取更多措施,讓客戶放心使用人工智能的數(shù)據(jù)。

然而,思科的調(diào)研顯示,下列幫助建立AI信任的工作中沒有任何一項獲得超過50%的受訪者的采用:

  • 解釋AI應用如何工作50%
  • 確保流程中有人員干預50%
  • 制定AI道德管理計劃49%
  • 審計AI應用偏差33%

思科首席法務官DevStahlkopf評論道:“超過90%的受訪者認為人工智能需要新技術來管理數(shù)據(jù)和風險。AI安全治理對建立客戶信任至關重要。”

責任編輯:華軒 來源: GoUpSec
相關推薦

2024-11-07 13:07:47

2013-04-27 14:15:10

社交

2013-04-19 10:48:42

2011-11-14 09:29:19

LBS

2016-03-31 13:28:46

聯(lián)通

2010-03-16 16:38:50

.com四分之一個世紀

2012-07-31 09:48:51

Google Fibe光纖

2012-03-17 19:52:07

iPad

2020-12-07 16:42:37

密碼網(wǎng)絡攻擊網(wǎng)絡安全

2009-02-16 09:06:03

技術移民美國科技企業(yè)

2018-05-07 15:23:51

2019-07-23 09:58:58

人工智能網(wǎng)絡安全物聯(lián)網(wǎng)

2019-10-17 12:58:33

云計算IT支出SaaS

2015-12-18 11:37:03

2022-06-08 19:31:38

人工智能Cloudera自動化

2012-04-06 10:32:14

企業(yè)網(wǎng)絡WLANWi-Fi網(wǎng)絡

2012-06-28 11:14:09

戴爾M420刀片

2023-09-20 14:38:53

智能汽車

2018-05-24 21:11:12

點贊
收藏

51CTO技術棧公眾號