自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

在企業(yè)中使用人工智能驅(qū)動的聊天機器人的風(fēng)險

人工智能
對ChatGPT存在安全風(fēng)險的擔(dān)憂源于信息可能會通過ChatGPT最終泄露到公共領(lǐng)域,無論是通過安全漏洞還是使用用戶生成的內(nèi)容來“訓(xùn)練”聊天機器人。

自2022年11月ChatGPT正式推出以來,已有數(shù)百萬用戶瘋狂涌入。由于其出色的類人語言生成能力,編程軟件的天賦,以及閃電般的文本分析能力,ChatGPT已經(jīng)迅速成為開發(fā)人員、研究人員和日常用戶的首選工具。

與任何顛覆性技術(shù)一樣,像ChatGPT這樣的生成式人工智能系統(tǒng)也存在潛在風(fēng)險。特別是,科技行業(yè)的主要參與者、國家情報機構(gòu)和其他政府機構(gòu)都對將敏感信息輸入ChatGPT等人工智能系統(tǒng)發(fā)出了警告。

對ChatGPT存在安全風(fēng)險的擔(dān)憂源于信息可能會通過ChatGPT最終泄露到公共領(lǐng)域,無論是通過安全漏洞還是使用用戶生成的內(nèi)容來“訓(xùn)練”聊天機器人。

為了應(yīng)對這些擔(dān)憂,技術(shù)公司正在采取行動,減輕與大型語言模型(LLMs)和會話式AI (CAI)相關(guān)的安全風(fēng)險。一些企業(yè)甚至已經(jīng)選擇完全禁用ChatGPT,而其他企業(yè)則警告其員工將機密數(shù)據(jù)輸入此類模型的危險。

ChatGPT:一個可怕的開放AI?

人工智能驅(qū)動的ChatGPT已經(jīng)成為企業(yè)優(yōu)化運營和簡化復(fù)雜任務(wù)的流行工具。然而,最近的事件凸顯了通過該平臺分享機密信息的潛在危險。

令人不安的是,在不到一個月的時間里,就報告了三起通過ChatGPT泄露敏感數(shù)據(jù)的事件。韓國媒體報道稱,智能手機制造商三星(Samsung)主要半導(dǎo)體工廠的員工將機密信息(包括用于解決編程錯誤的高度敏感源代碼)輸入人工智能聊天機器人,引發(fā)了爭議。

源代碼是任何技術(shù)公司最嚴(yán)密保護的秘密之一,因為它是任何軟件或操作系統(tǒng)的基礎(chǔ)構(gòu)件。而現(xiàn)在,如此寶貴的商業(yè)機密無意中落入了OpenAI的手中。

據(jù)知情人士透露,三星目前已經(jīng)限制了其員工訪問ChatGPT的權(quán)限。

包括亞馬遜(Amazon)、沃爾瑪(Walmart)和摩根大通(JPMorgan)在內(nèi)的其他《財富》500強企業(yè)集團,也遇到過員工不小心將敏感數(shù)據(jù)輸入聊天機器人的類似情況。

之前也出現(xiàn)過有關(guān)亞馬遜員工使用ChatGPT獲取機密客戶信息的報道,此事促使這家科技巨頭迅速限制了該工具的使用,并嚴(yán)厲警告員工不要將任何敏感數(shù)據(jù)輸入該工具。

“不完美”的模型:缺乏智慧的知識庫

人工智能驅(qū)動的數(shù)字體驗平臺Coveo的機器學(xué)習(xí)總監(jiān)Mathieu Fortier表示,GPT-4和LLaMA等LLMs存在多個不完美之處,并警告說,盡管它們在語言理解方面很出色,但這些模型缺乏識別準(zhǔn)確性、不變定律、物理現(xiàn)實和其他非語言方面的能力。

雖然LLM通過訓(xùn)練數(shù)據(jù)構(gòu)建了廣泛的內(nèi)在知識庫,但它們沒有明確的真理或事實準(zhǔn)確性概念。此外,它們很容易受到安全漏洞和數(shù)據(jù)提取攻擊,而且容易偏離預(yù)期的反應(yīng)或表現(xiàn)出“精神錯亂的”特征——專業(yè)名稱為“幻覺”。

Fortier強調(diào)了企業(yè)面臨的高風(fēng)險。其后果可能會嚴(yán)重破壞客戶的信任,并對品牌聲譽造成不可挽回的損害,導(dǎo)致重大的法律和財務(wù)問題。

緊跟其他科技巨頭的腳步,這家零售巨頭的科技部門沃爾瑪全球科技(Walmart Global tech)已采取措施降低數(shù)據(jù)泄露的風(fēng)險。在給員工的一份內(nèi)部備忘錄中,該公司指示員工在檢測到可能危及企業(yè)數(shù)據(jù)和安全的可疑活動后,立即屏蔽ChatGPT。

沃爾瑪?shù)囊晃话l(fā)言人表示,盡管該零售商正在基于GPT-4的功能創(chuàng)建自己的聊天機器人,但它已經(jīng)實施了多項措施,以保護員工和客戶數(shù)據(jù)不被ChatGPT等生成式人工智能工具傳播。

該發(fā)言人表示,“大多數(shù)新技術(shù)帶來了新的好處,也帶來了新的風(fēng)險。因此,我們會評估這些新技術(shù),并為我們的員工提供使用指南,以保護我們的客戶、會員和員工的數(shù)據(jù),這并不罕見。利用現(xiàn)有技術(shù)(如Open AI),并在其上構(gòu)建一個更有效地與零售商溝通的層,使我們能夠開發(fā)新的客戶體驗,并改善現(xiàn)有能力?!?/p>

除此之外,Verizon和Accenture等其他公司也采取了限制ChatGPT使用的措施,Verizon指示其員工將聊天機器人限制在非敏感任務(wù)上,Accenture則實施了更嚴(yán)格的控制,以確保遵守數(shù)據(jù)隱私法規(guī)。

ChatGPT如何使用會話數(shù)據(jù)

更令人擔(dān)憂的是,ChatGPT會保留用戶輸入數(shù)據(jù)以進(jìn)一步訓(xùn)練模型,這引發(fā)了關(guān)于敏感信息可能通過數(shù)據(jù)泄露或其他安全事件暴露的問題。

OpenAI是流行的生成式人工智能模型ChatGPT和DALL-E背后的公司,最近實施了一項新政策,以改善用戶數(shù)據(jù)隱私和安全性。

從今年3月1日起,API用戶必須明確選擇共享他們的數(shù)據(jù)以訓(xùn)練或改進(jìn)OpenAI的模型。

相比之下,對于非API服務(wù),如ChatGPT和DALL-E,如果用戶不希望OpenAI使用他們的數(shù)據(jù),則必須選擇退出。

OpenAI公司在最近更新的博客中稱,“當(dāng)您使用我們的非API消費者服務(wù)ChatGPT或DALL-E時,我們可能會使用您提供的數(shù)據(jù)來改進(jìn)我們的模型。與我們共享您的數(shù)據(jù)不僅有助于我們的模型變得更準(zhǔn)確,更好地解決您的具體問題,還有助于提高它們的總體能力和安全性……您可以通過填寫這張表格,填寫您的組織ID和與帳戶所有者關(guān)聯(lián)的電子郵件地址,來請求退出使用您的數(shù)據(jù)來改善我們的非API服務(wù)。”

這一聲明是在對上述風(fēng)險的擔(dān)憂以及公司在處理敏感信息時需要謹(jǐn)慎的情況下發(fā)布的。意大利政府最近加入了這場爭論,在全國范圍內(nèi)禁止使用ChatGPT,理由是擔(dān)心數(shù)據(jù)隱私和安全。

OpenAI表示,它從用于改進(jìn)其人工智能模型的數(shù)據(jù)中刪除了任何個人身份信息,并且僅為此目的使用來自每個客戶的一小部分?jǐn)?shù)據(jù)樣本。

政府警告

英國政府通信總部(GCHQ)情報機構(gòu)通過其國家網(wǎng)絡(luò)安全中心(NCSC)發(fā)布了一份關(guān)于ChatGPT等大型語言模型(LLMs)的局限性和風(fēng)險的警告。雖然這些模型因其令人印象深刻的自然語言處理能力而受到稱贊,但NCSC警告說,它們并非絕對正確,可能包含嚴(yán)重的缺陷。

根據(jù)NCSC的說法,LLM可以生成不正確或“幻覺”的事實,正如Google Bard聊天機器人的第一次演示所展示的那樣。它們也會表現(xiàn)出偏見和輕信,尤其是在回答引導(dǎo)性問題時。此外,這些模型需要大量的計算資源和大量的數(shù)據(jù)來從頭開始訓(xùn)練,并且它們很容易受到注入攻擊和有毒內(nèi)容創(chuàng)建的影響。

Coveo公司的Fortier表示,“LLM根據(jù)提示(prompt)與內(nèi)部知識的內(nèi)在相似性來生成對提示的響應(yīng)。然而,鑒于它們沒有內(nèi)在的內(nèi)部‘硬規(guī)則’(hard rule)或推理能力,它們不可能100%成功地遵守不披露敏感信息的約束。盡管有努力減少敏感信息的生成,但如果LLM使用這些數(shù)據(jù)進(jìn)行訓(xùn)練,它可以重新生成這些信息。唯一的解決辦法就是不要用敏感材料來訓(xùn)練這些模型。用戶還應(yīng)避免在提示中向它們提供敏感信息,因為目前大多數(shù)服務(wù)都會將這些信息保存在它們的日志中?!?/p>

生成式人工智能安全和道德使用的最佳實踐

隨著企業(yè)繼續(xù)采用人工智能和其他新興技術(shù),確保適當(dāng)?shù)陌踩胧﹣肀Wo敏感數(shù)據(jù)并防止機密信息的意外泄露將至關(guān)重要。

這些公司采取的行動凸顯了在使用ChatGPT等人工智能語言模型時保持警惕的重要性。雖然這些工具可以極大地提高效率和生產(chǎn)力,但如果使用不當(dāng),它們會帶來重大風(fēng)險。

會話式人工智能初創(chuàng)公司Got it AI的董事長Peter Relan建議稱,“最好的方法是將語言模型原始改進(jìn)中的每一個新發(fā)展都納入到企業(yè)策略驅(qū)動的架構(gòu)中,該架構(gòu)將一個語言模型與用于防護的預(yù)處理器和后處理器結(jié)合起來,針對特定于企業(yè)的數(shù)據(jù)對它們進(jìn)行微調(diào),然后甚至還可以進(jìn)行本地部署。否則,原始語言模型太強大了,有時在企業(yè)中處理是有害的。”

英偉達(dá)支持的對話式人工智能平臺Kore. ai的首席技術(shù)官Prasanna Arikala表示,未來,公司將有必要限制LLM訪問敏感和個人信息,以避免違規(guī)。

Arikala指出,“實施嚴(yán)格的訪問控制,如多因素身份驗證,以及對敏感數(shù)據(jù)進(jìn)行加密,可以幫助緩解這些風(fēng)險。此外,還需要定期進(jìn)行安全審計和漏洞評估,以識別和消除潛在的漏洞。如果使用得當(dāng),LLM是很有價值的工具,但對于公司來說,采取必要的預(yù)防措施來保護敏感數(shù)據(jù)并保持客戶和利益相關(guān)者的信任至關(guān)重要。”

這些法規(guī)將如何演變還有待觀察,但企業(yè)必須保持警惕,保持領(lǐng)先地位。生成式人工智能在帶來潛在好處的同時,也帶來了新的責(zé)任和挑戰(zhàn),技術(shù)行業(yè)需要與政策制定者一起努力,確保以負(fù)責(zé)任和合乎道德的方式開發(fā)和實施這項技術(shù)。

責(zé)任編輯:姜華 來源: 企業(yè)網(wǎng)D1Net
相關(guān)推薦

2019-01-25 16:30:34

機器人機器學(xué)習(xí)人工智能

2023-03-28 15:06:47

人工智能聊天機器人

2019-12-03 12:21:43

人工智能技術(shù)機器人

2020-01-09 11:24:37

人工智能技術(shù)機器人

2021-03-08 08:00:00

人工智能機器人醫(yī)療

2024-07-01 07:35:11

2023-09-28 20:57:23

Meta人工智能聊天機器人

2023-10-18 15:23:47

人工智能聊天機器人

2022-07-05 11:32:16

人工智能機器人心理健康

2023-07-27 14:38:58

人工智能機器人開發(fā)

2021-05-08 11:01:01

人工智能AI機器人

2024-02-04 10:04:53

人工智能

2022-05-07 10:52:28

人工智能機器人道德風(fēng)險

2021-01-28 19:34:49

人工智能AI機器人

2022-07-05 06:42:01

聊天機器人人工智能

2020-03-13 12:13:56

聊天機器人工智能AI

2023-03-09 15:37:39

2024-08-16 07:09:22

2023-11-06 21:07:23

人工智能聊天機器人Grok

2020-06-08 07:00:00

人工智能AI
點贊
收藏

51CTO技術(shù)棧公眾號