自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

最新報告:25%員工向ChatGPT等AI工具上傳敏感數據

安全 人工智能
15%的員工經常在ChatGPT上上傳公司數據,其中超過四分之一的數據被認為是敏感信息,這使公司在無形中面臨安全漏洞的風險。

一項新的研究發(fā)現,15%的員工經常在ChatGPT上上傳公司數據,其中超過四分之一的數據被認為是敏感信息,這使公司在無形中面臨安全漏洞的風險。

6月的研究報告《揭示真正的GenAI數據暴露風險》分析了超過10000名員工,主要研究員工如何在工作場景下使用ChatGPT和其他生成性AI應用程序。

該報告顯示,至少有15%的員工在工作中使用ChatGPT和其他生成性人工智能工具,其中近25%的訪問直接將公司數據粘貼在AI工具中。許多員工每周、甚至每天都在粘貼敏感數據。

根據報告顯示,員工平均每天向生成性人工智能工具輸入數據36次,而且隨著人工智能的普及,這些數字預計只會增加。

LayerX在這份長達10頁的報告中說:用不了多久,員工將使用GenAI作為他們日常工作流程的一部分,就像他們使用電子郵件、聊天軟件(Slack)、視頻會議(Zoom、Teams)、項目管理和其他輔助工作的工具一樣。

從報告來看,盡管GenAI正在開辟一個全新的領域,但它也給企業(yè)帶來了巨大的風險,特別是關于敏感數據的安全和隱私。

更重要的是,被粘貼進GenAI工具的敏感信息的主要類別包括:內部業(yè)務數據占43%,源代碼占31%,以及個人身份信息(即PII)占12%。這其中,源代碼和內部業(yè)務數據被利用的風險是最高的。

研究報告說,由于GenAI平臺在瀏覽器中運行,現有的安全解決方案無法解決敏感數據粘貼等風險。

主要研究結果顯示,4%的員工每周都會將敏感數據粘貼到GenAI中,增加了敏感數據外流的機會。

這些數字還發(fā)現,50%與GenAI接觸最多的員工來自研發(fā)部門,其次是銷售和營銷部門,超過23%,財務部門超過14%。

研究發(fā)現,相當一部分GenAI用戶不僅依賴提示指令,而且還會粘貼數據以嘗試生成所需的文本。

例如,一個銷售經理使用GenAI來制作其季度的業(yè)績報表及執(zhí)行流程,就必須向GenAI工具提供實際的銷售結果數據。

這就把公司的敏感數據暴露在GenAI中,盡管這么做的原始目的可能是為了節(jié)省時間。

2023年1月,在其發(fā)布后不到兩個月的時間里,ChatGPT迅速積累了超過1億的活躍用戶。

而到4月,ChatGPT報告其活躍用戶增長到每月高達8億多用戶。

報告發(fā)現44%的員工在過去3個月中使用過GenAI API,其中一部分人每月訪問AI網站和應用程序的次數超過50次。

隨著AI對生產力的大幅提高,這一現象在日后只會有增無減,屆時如何保護公司內部數據不外流,將成為每個公司都要面臨的問題。

參考鏈接:https://cybernews.com/security/workers-regularly-post-sensitive-data-into-chatgpt/

責任編輯:趙寧寧 來源: FreeBuf.COM
相關推薦

2010-09-25 08:55:29

2023-10-23 10:39:05

2023-05-23 11:49:05

2020-10-25 09:04:46

數據加密數據泄露攻擊

2023-06-27 07:26:36

汽車之家敏感數據治理

2014-12-18 10:57:27

數據安全敏感數據數據保護

2023-02-19 10:22:06

ChatGPT人工智能

2023-10-30 15:35:05

數據安全數據驅動

2020-04-16 08:00:00

Ansible Vau敏感數據加密

2021-09-16 10:11:15

Dataphin 數據保護

2024-03-05 09:40:35

2025-03-14 08:50:00

網絡安全網絡威脅AI

2011-08-01 14:36:06

加密RSA

2021-10-28 09:42:38

代碼編碼開發(fā)

2024-01-26 13:26:45

生成式AI

2012-04-12 14:45:12

賽門鐵克云南電網

2024-01-01 15:53:25

2020-12-20 17:30:17

數據匿名化敏感數據數據庫

2017-03-09 00:41:40

2025-01-21 14:48:39

點贊
收藏

51CTO技術棧公眾號