自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Black Hat USA 2024:微軟AI助手Copilot安全隱患曝光

安全
隨著關(guān)于大型科技公司如何處理用戶數(shù)據(jù)的討論愈發(fā)激烈,微軟堅(jiān)稱Copilot提供企業(yè)級(jí)安全保護(hù),確保用戶數(shù)據(jù)不會(huì)被用于AI模型的訓(xùn)練。

在Black Hat USA 2024,一位研究人員披露了微軟AI助手Copilot存在的多個(gè)安全隱患,攻擊者能夠借此漏洞竊取敏感數(shù)據(jù)和企業(yè)憑證。

微軟聲稱,通過將任務(wù)委派給AI助手Copilot,每天可以節(jié)省數(shù)百小時(shí)的工作時(shí)間。Copilot是微軟在2023年2月推出的AI驅(qū)動(dòng)助手,它允許企業(yè)構(gòu)建和訓(xùn)練自己的AI助手,使得微軟應(yīng)用程序中的任務(wù)自動(dòng)化。Copilot基于大型語言模型,能夠接受文本、圖像和語音輸入,并在新的Windows 11 PC和Copilot PC上運(yùn)行。

然而,使用AI技術(shù)始終伴隨著風(fēng)險(xiǎn)。隨著關(guān)于大型科技公司如何處理用戶數(shù)據(jù)的討論愈發(fā)激烈,微軟堅(jiān)稱Copilot提供企業(yè)級(jí)安全保護(hù),確保用戶數(shù)據(jù)不會(huì)被用于AI模型的訓(xùn)練。

盡管微軟做出了這樣的承諾,但網(wǎng)絡(luò)安全研究員Micahel Bargury卻在Black Hat USA 2024上展示了Copilot Studio的機(jī)器人如何輕松地繞過現(xiàn)有防護(hù)措施,竊取企業(yè)敏感數(shù)據(jù)。

泄露不僅可能,而且很可能

根據(jù)研究人員的說法,不安全的默認(rèn)設(shè)置、過度寬松的插件和過于樂觀的設(shè)計(jì)思維,使得數(shù)據(jù)泄露變得“很可能”。因?yàn)橛脩魟?chuàng)建的大多數(shù) Copilot Studio 機(jī)器人都不安全,很容易在網(wǎng)絡(luò)上被發(fā)現(xiàn),所以必須將它們作為應(yīng)用程序安全計(jì)劃的一部分,以確保敏感數(shù)據(jù)不會(huì)泄露。

而且,Copilot 的界面和系統(tǒng)并不能防止錯(cuò)誤和惡意攻擊。

為此,Bargury創(chuàng)建了一個(gè)名為CopilotHunter的工具,它可以掃描公開可訪問的Copilot,并利用模糊測(cè)試和生成性AI技術(shù)來濫用它們,以提取敏感的企業(yè)數(shù)據(jù)。研究結(jié)果顯示,針對(duì)數(shù)千個(gè)可訪問的機(jī)器人進(jìn)行攻擊,揭示了惡意行為者可能利用的敏感數(shù)據(jù)和企業(yè)憑證。

Bargury表示,攻擊者可以遠(yuǎn)程控制你與Copilot的交互,使Copilot代表你執(zhí)行任何操作,操縱你并誤導(dǎo)你的決策,甚至完全控制Copilot向你發(fā)送的每一個(gè)字。

利用微軟Copilot的方法

研究人員指出,創(chuàng)建Copilot的初始步驟就存在安全隱患。用戶在創(chuàng)建自己的Copilot時(shí),需要選擇一個(gè)“知識(shí)”來源來訓(xùn)練AI模型。

這些來源可能包括公共網(wǎng)站、上傳的文件、SharePoint、OneDrive或云數(shù)據(jù)庫(kù)Dataverse。Bargury警告說,即使是在這個(gè)階段,也存在潛在的安全風(fēng)險(xiǎn),例如上傳的文件可能包含隱藏的元數(shù)據(jù),或者敏感數(shù)據(jù)可能被不當(dāng)共享。

此外,使用SharePoint、OneDrive或Dataverse作為輸入源也可能引發(fā)數(shù)據(jù)過度共享的問題。盡管數(shù)據(jù)存儲(chǔ)在公司的云環(huán)境中,但用戶授權(quán)Copilot訪問所有子頁(yè)面,這可能導(dǎo)致數(shù)據(jù)泄露。

Bargury還提到,Copilot的“主題”功能也可能成為安全問題。主題定義了如何與AI進(jìn)行對(duì)話,一個(gè)主題包含一組觸發(fā)短語,即用戶在討論特定問題時(shí)可能會(huì)使用的短語、關(guān)鍵詞和問題,觸發(fā)短語有助于Copilot對(duì)問題做出恰當(dāng)?shù)姆磻?yīng)。

除了16個(gè)預(yù)設(shè)的主題外,用戶還可以創(chuàng)建自己的主題來定制Copilot,但名稱相似的主題可能會(huì)影響執(zhí)行路徑。

關(guān)于硬編碼憑證

某些連接和流程可能包含硬編碼憑證。硬編碼意味著將用戶名、密碼、API密鑰或其他敏感信息等驗(yàn)證數(shù)據(jù)直接嵌入到軟件或應(yīng)用程序的源代碼中。

雖然這是一種不安全的網(wǎng)絡(luò)安全做法,但這種情況仍然可能發(fā)生。如果這些憑證被輸入到AI模型中,情況可能會(huì)變得更加棘手。AI模型可能會(huì)分析這些資源并“學(xué)會(huì)”憑證,在Copilot的回答中提供硬編碼的憑證。

另一個(gè)潛在的薄弱點(diǎn)是通道和身份驗(yàn)證。目前,Copilot的默認(rèn)身份驗(yàn)證設(shè)置為“Teams”。然而,"無身份驗(yàn)證 "選項(xiàng)在界面中只需點(diǎn)擊一下即可完成,這很容易誘使用戶疏忽。

Bargury強(qiáng)調(diào),賦予AI數(shù)據(jù)訪問權(quán)限可以使其變得有用,但同時(shí)也使其變得脆弱。每個(gè)組織都需要進(jìn)行風(fēng)險(xiǎn)評(píng)估找出問題所在,確保安全團(tuán)隊(duì)密切監(jiān)控這些AI助手的交互。特別是在使用Copilot Studio構(gòu)建自定義助手時(shí),不應(yīng)僅僅依賴開發(fā)人員或公民開發(fā)者的決定,而應(yīng)與安全團(tuán)隊(duì)共同作出決策。

參考來源:https://cybernews.com/security/black-hat-microsoft-copilot-data-leak/

責(zé)任編輯:趙寧寧 來源: FreeBuf
相關(guān)推薦

2019-07-30 09:11:50

2021-08-05 13:11:19

美國(guó)黑帽大會(huì)Black Hat U網(wǎng)絡(luò)安全

2018-08-10 11:09:43

2013-08-13 08:56:35

2021-08-26 05:22:33

安全工具Black Hat UScrapesy

2019-07-09 23:19:37

Black Hat U網(wǎng)絡(luò)安全信息安全

2025-02-18 15:13:29

2020-08-07 10:44:42

黑帽大會(huì)網(wǎng)絡(luò)安全初創(chuàng)企業(yè)

2010-09-17 14:29:23

2012-06-25 09:18:36

2023-03-17 11:05:44

微軟Copilot生成式AI助手

2017-02-24 08:11:09

Docker數(shù)據(jù)安全容器

2009-07-06 13:38:02

2023-08-04 12:12:43

WindowsCopilot

2021-05-31 12:54:57

深信服

2023-03-16 23:57:11

微軟ChatGPT人工智能

2009-09-07 16:56:02

2019-07-23 08:56:46

IoT物聯(lián)網(wǎng)安全

2014-07-03 11:01:13

mongoDB安全隱患

2016-09-29 22:09:26

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)