ChatGPT玩的好,牢飯?jiān)缤砩俨涣耍?/h1>
要說2023年初網(wǎng)絡(luò)平臺最火爆的,無疑是人工智能領(lǐng)域新寵——智能聊天機(jī)器人模型ChatGPT,吸引了無數(shù)網(wǎng)民與它進(jìn)行“人模人樣”的交流互動,因?yàn)樗粌H能充分理解人類提出的問題,給出不再“人工智障”的答復(fù),還會切實(shí)投入到諸多生產(chǎn)力實(shí)踐中,如編程、制圖、腳本攥寫,甚至能詩情畫意地創(chuàng)作詩歌等文案。
一時(shí)間,人們紛紛開始討論:以ChatGPT為代表的人工智能是否會在不久的將來取代大量人類所從事的職業(yè)?其實(shí),在探討這個(gè)問題之前,我們更需要警惕的是,誕生于網(wǎng)絡(luò)世界的它存在極大的安全風(fēng)險(xiǎn),甚至是面臨法律風(fēng)險(xiǎn)。正如圈內(nèi)流傳的段子:ChatGPT玩的好,牢飯?jiān)缤砩俨涣耍?/p>
ChatGPT的誕生:天資聰明,但仍不“夠格”
ChatGPT(Chat Generative Pre-Trained Transformer,全稱聊天生成式預(yù)訓(xùn)練轉(zhuǎn)換器)是由全球領(lǐng)先的人工智能公司 OpenAI推出的人工智能聊天機(jī)器人模型,誕生于2022年11月30日。通過利用人類反饋強(qiáng)化模型技術(shù),讓人類偏好作為獎勵信號來微調(diào)模型,從而不斷學(xué)習(xí)人類語言,做到真正像人一樣聊天交流。正是由于它真正披上了如真人般的外衣,ChatGPT自問世以來就迅速火爆全球。截至2023年1月底,ChatGPT月活用戶數(shù)突破1億,成為全球用戶增速最快的爆款應(yīng)用之一。
就在ChatGPT越發(fā)施展它多面手的能力時(shí),人們也越發(fā)開始焦慮:自己的飯碗是否不保?就像過去機(jī)器解放了人力、取代大量人工勞動一樣,歷史的發(fā)展很可能會推動人工智能進(jìn)一步參與到人類的工作當(dāng)中,用更少的人力完成同樣的工作內(nèi)容。但就現(xiàn)在的技術(shù)水平,要完全走到這一步,目前并沒有可以預(yù)期的時(shí)間表,以ChatGPT為代表的人工智能還僅僅停留在初期探索階段,雖然能夠在與人類的對話中不斷模仿、學(xué)習(xí),但基礎(chǔ)仍然是在大量文本和學(xué)習(xí)模型的基礎(chǔ)上不斷調(diào)試,所做出的回答全部來源于網(wǎng)絡(luò),并不能真正主觀理解人類語言的真實(shí)含義,也很難就具體真實(shí)場景給出切合實(shí)際的答案。
當(dāng)ChatGPT碰到未經(jīng)大量語料訓(xùn)練的專業(yè)領(lǐng)域問題,給出的答案往往并不能回答實(shí)際問題,同樣,也不具備人類擅長的引申能力。比如下圖,在回答一個(gè)氣象學(xué)相關(guān)的問題時(shí),由于氣象學(xué)領(lǐng)域相對小眾、復(fù)雜,在未有該領(lǐng)域足夠內(nèi)容的訓(xùn)練下,ChatGPT給出了如同“營銷號”般沒有實(shí)質(zhì)性內(nèi)容的答復(fù)。因此,即便ChatGPT能夠處理日常工作,也將僅僅是一些重復(fù)性、不需要過多創(chuàng)造性的工作。
可即便如此,ChatGPT在網(wǎng)絡(luò)安全領(lǐng)域依然能夠發(fā)揮出積極作用,有望成為網(wǎng)安人的得力幫手。
ChatGPT 在網(wǎng)絡(luò)安全方面的優(yōu)勢
檢測易受攻擊的代碼
ChatGPT 可以幫助安全人員對代碼進(jìn)行安全檢測。經(jīng)初步測驗(yàn),若復(fù)制一段易受攻擊的代碼,讓 ChatGPT 對其進(jìn)行分析,該工具可快速識別出其中的安全問題,并就如何修復(fù)給出具體建議。雖然還存在一些不足,但對于想要快速檢查其代碼片段是否存在漏洞的開發(fā)人員來說確實(shí)是一個(gè)實(shí)用工具。隨著越來越多的企業(yè)正在推動將安全性內(nèi)置到軟件開發(fā)工作流程中,ChatGPT所具備的準(zhǔn)確快速的檢測能力可以有效提高代碼安全性。
任務(wù)自動化
ChatGPT 有望進(jìn)一步加強(qiáng)腳本、策略編排、安全報(bào)告的自動化,比如為滲透測試報(bào)告編寫修復(fù)指南。ChatGPT 還可以更快地寫出大綱,這有助于在報(bào)告中添加自動化元素,甚至可以為員工提供網(wǎng)絡(luò)安全培訓(xùn)課程。在威脅情報(bào)方面,ChatGPT有望顯著提高情報(bào)效率和實(shí)時(shí)信任決策,部署比現(xiàn)階段訪問和身份模型更高的置信度,形成關(guān)于訪問系統(tǒng)和信息的實(shí)時(shí)結(jié)論。
ChatGPT 在網(wǎng)絡(luò)安全方面的風(fēng)險(xiǎn)
任何一項(xiàng)新技術(shù)往往都存在弊端與風(fēng)險(xiǎn), ChatGPT在幫助人類讓安全產(chǎn)品更加智能化、輔助人類應(yīng)對安全威脅的同時(shí),基于信息搜集與再利用工作原理,它是否會逾越安全邊界,產(chǎn)生各類安全風(fēng)險(xiǎn)?此外,雖然ChatGPT 服務(wù)條款明確禁止生成惡意軟件,包括勒索軟件、鍵盤記錄器、病毒或“其他旨在造成一定程度危害的軟件,但在黑客手中,ChatGPT也是否仍會化為“魔爪”,讓網(wǎng)絡(luò)攻擊更加廣泛、復(fù)雜?
ChatGPT本身的安全風(fēng)險(xiǎn)
由于ChatGPT需要廣泛搜集網(wǎng)絡(luò)資料以及與人的對話中獲取信息來訓(xùn)練模型,預(yù)示著它同樣具備獲取并吸收敏感信息的能力。據(jù)硅谷媒體報(bào)道,亞馬遜律師稱,他們在ChatGPT生成的內(nèi)容中發(fā)現(xiàn)了與公司內(nèi)部機(jī)密十分相似的文本,可能是由于一些亞馬遜員工在使用ChatGPT生成代碼和文本時(shí)輸入了公司內(nèi)部數(shù)據(jù)信息,該律師擔(dān)心這些數(shù)據(jù)成為ChatGPT用來進(jìn)行迭代的訓(xùn)練數(shù)據(jù)。而微軟內(nèi)部的工程師也警告員工,在日常工作使用時(shí)不要將敏感數(shù)據(jù)發(fā)送給OpenAI終端,因?yàn)镺penAI可能會將其用于未來模型的訓(xùn)練。
這也涉及到另一個(gè)問題:從互聯(lián)網(wǎng)搜集海量數(shù)據(jù)是否合規(guī)?歐洲數(shù)據(jù)保護(hù)委員會(EDPB)成員Alexander Hanff質(zhì)疑,ChatGPT是一種商業(yè)產(chǎn)品,雖然互聯(lián)網(wǎng)上存在許多可以被訪問的信息,但從具有禁止第三方爬取數(shù)據(jù)條款的網(wǎng)站收集海量數(shù)據(jù)可能違反相關(guān)規(guī)定,不屬于合理使用,此外還要考慮到受GDPR等保護(hù)的個(gè)人信息,爬取這些信息并不合規(guī),而且使用海量原始數(shù)據(jù)可能違反GDPR的“最小數(shù)據(jù)”原則。
同樣的,當(dāng)ChatGPT依據(jù)人類語言進(jìn)行訓(xùn)練時(shí),一些涉及個(gè)人的數(shù)據(jù)是否能夠被有效刪除?根據(jù)OpenAI官網(wǎng)公布的隱私政策,OpenAI并未提及類似歐盟GDPR等數(shù)據(jù)保護(hù)法規(guī),在“使用數(shù)據(jù)”條款里,OpenAI承認(rèn)會收集用戶使用服務(wù)時(shí)輸入的數(shù)據(jù),但未對數(shù)據(jù)的用途作進(jìn)一步說明。
根據(jù)GDPR第17條,個(gè)人有權(quán)要求刪除其個(gè)人數(shù)據(jù),即“被遺忘權(quán)”或“刪除權(quán)”。但像ChatGPT等大語言模型是否可以“忘記”用于訓(xùn)練自己的數(shù)據(jù)?對于OpenAI是否能夠在個(gè)人要求時(shí)從模型中完全刪除數(shù)據(jù),業(yè)內(nèi)人士認(rèn)為,這類模型很難刪除個(gè)人信息的所有痕跡。此外,訓(xùn)練此類模型花費(fèi)高昂,AI公司也不太可能每次在個(gè)人要求刪除某些敏感數(shù)據(jù)后重新訓(xùn)練整個(gè)模型。
利用ChatGPT從事違法經(jīng)營活動
隨著ChatGPT的刷屏,國內(nèi)也出現(xiàn)眾多與之相關(guān)的微信公眾號及小程序。由于ChatGPT官方并未在中國大陸開通服務(wù),無法通過大陸手機(jī)號注冊并與之對話,這些小程序便開始宣稱能夠提供與ChatGPT對話的套餐服務(wù),比如9.99元20次對話額度至999.99元無限次對話額度等。也就是說,這些小程序充當(dāng)國內(nèi)用戶與ChatGPT的中介。但即便是中介往往也是真假難辨,一些賬號雖然會宣稱調(diào)用ChatGPT的端口,但也不排除其實(shí)是使用了其他機(jī)器人模型,對話質(zhì)量遠(yuǎn)不及ChatGPT。
提供所謂ChatGDT對話服務(wù)的公眾號小程序
類似的,一些賣家也在電商平臺提供售賣ChatGPT賬號、代理注冊的服務(wù),有媒體調(diào)查發(fā)現(xiàn),一些賣家從海外網(wǎng)站批量購買可以修改密碼的現(xiàn)成賬號,成本在8元左右,而對外售價(jià)可以達(dá)到30元,如果是代理注冊,成本則可以低至1.2元。
且不說上述這些渠道存在泄露個(gè)人隱私的風(fēng)險(xiǎn),私自搭建國際信道,公開提供跨境經(jīng)營服務(wù)的情形,也觸犯了《網(wǎng)絡(luò)安全法》相關(guān)規(guī)定。目前這些帶有ChatGPT字眼的公眾號或小程序都大多已經(jīng)被微信官方進(jìn)行了封禁處理,相關(guān)平臺也在對這類賬號的買賣行為進(jìn)行封殺。
被黑客利用從事網(wǎng)絡(luò)攻擊
正如前文所說,ChatGPT能夠幫助安全人員檢測易受攻擊的代碼,那對于黑客而言也能進(jìn)行類似的操作。數(shù)字安全調(diào)查媒體Cybernews的研究人員發(fā)現(xiàn),ChatGPT可以被黑客用于尋找網(wǎng)站的安全漏洞,在其幫助下,研究人員對一個(gè)普通網(wǎng)站進(jìn)行了滲透測試,并在45分鐘內(nèi)結(jié)合ChatGPT提供的建議和代碼更改示例完成了破解。
另外,ChatGPT能夠用來編程,相應(yīng)地也能被用來編寫惡意代碼。比如通過 ChatGPT 編寫 VBA 代碼,只需簡單地將惡意 URL 插入到此代碼中,當(dāng)用戶打開如Excel文件時(shí)便會自動開始下載惡意軟件負(fù)載。因此,ChatGPT能讓沒有太多技術(shù)能力的黑客在短短幾分鐘內(nèi)炮制出武器化的含附件的電子郵件,對目標(biāo)實(shí)施網(wǎng)絡(luò)攻擊。
去年12月,已有黑客在地下論壇分享利用ChatGPT編寫的Python 竊取器代碼,該竊取器能搜索常見文件類型(如 MS Office 文檔、PDF 和圖片文件),將它們復(fù)制到 Temp 文件夾內(nèi)的一個(gè)隨機(jī)子文件夾,壓縮并將它們上傳到硬編碼的 FTP 服務(wù)器。
黑客在論壇展示了如何使用 ChatGPT 創(chuàng)建信息竊取程序
由于ChatGPT能夠?qū)W習(xí)人類語言,在編寫釣魚郵件等社工行為時(shí)能夠在語法和表達(dá)習(xí)慣上更具有迷惑性。研究人員發(fā)現(xiàn),ChatGPT能使黑客能夠逼真地模擬各種社會環(huán)境,從而使任何針對性的攻擊都更加有效,即使是一些非母語國家的黑客,也能編寫出符合目標(biāo)國家語法和邏輯、沒有任何拼寫或格式錯誤的高仿真釣魚郵件。
利用ChatGPT 生成的釣魚郵件
初步盤點(diǎn)完上述ChatGPT網(wǎng)絡(luò)安全方面的優(yōu)勢與風(fēng)險(xiǎn)后,可以顯而易見,二者形成近乎完全相對的兩面性,即如果能夠被黑客查找漏洞、尋找攻擊面,那么相應(yīng)的也能幫助安全人員查漏補(bǔ)缺、收窄被攻擊的缺口。但現(xiàn)階段ChatGPT的安全輔助作用仍然需要專業(yè)人員進(jìn)行審查和批準(zhǔn),在流程上可能存在滯后性。而那些出于經(jīng)濟(jì)動機(jī)的犯罪黑客,通常會直接利用人工智能發(fā)起攻擊,威脅性難以估量。
人工智能安全是否急需法規(guī)約束?
毫無疑問,以ChatGPT為代表的人工智能是近年來一項(xiàng)卓越技術(shù)的體現(xiàn),但也正由于這項(xiàng)新技術(shù)的兩面性,網(wǎng)絡(luò)安全和 IT 專業(yè)人士對ChatGPT而言無疑有著復(fù)雜的感受。根據(jù) BlackBerry 最近的一項(xiàng)研究,雖然80%的企業(yè)表示計(jì)劃到 2025 年投資人工智能驅(qū)動的網(wǎng)絡(luò)安全,但仍有75%的企業(yè)認(rèn)為人工智能對安全構(gòu)成嚴(yán)重威脅。
這是否意味著我們急需一批新的法規(guī),來專門規(guī)范人工智能產(chǎn)業(yè)的發(fā)展?我國有專家學(xué)者提出,ChatGPT現(xiàn)在所獲得的轟動效應(yīng),以及多方資本試圖入局并不等于人工智能產(chǎn)業(yè)取得了突破性發(fā)展,ChatGPT目前能夠處理的工作任務(wù)具有鮮明的重復(fù)性、模板性特征,因此,監(jiān)管機(jī)構(gòu)沒有必要立即將ChatGPT技術(shù)監(jiān)管作為現(xiàn)階段網(wǎng)絡(luò)空間治理的核心工作任務(wù),否則,我國立法模式會陷入“出現(xiàn)一項(xiàng)新技術(shù),制定一項(xiàng)新規(guī)定”的邏輯怪圈。就目前而言,我國已經(jīng)出臺的《網(wǎng)絡(luò)安全法》、《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等法律法規(guī),針對人工智能技術(shù)和算法技術(shù)濫用規(guī)定了詳細(xì)的法定義務(wù)和監(jiān)管體系,足以應(yīng)對短期內(nèi)ChatGPT可能導(dǎo)致的網(wǎng)絡(luò)安全風(fēng)險(xiǎn)。現(xiàn)階段,我國監(jiān)管部門可以充分利用現(xiàn)有法律制度,加強(qiáng)對ChatGPT相關(guān)產(chǎn)業(yè)的監(jiān)管;未來在經(jīng)驗(yàn)成熟時(shí),可以考慮啟動人工智能技術(shù)應(yīng)用領(lǐng)域的立法,以應(yīng)對各種潛在的安全風(fēng)險(xiǎn)。
而在國外,歐盟計(jì)劃于2024年推出《人工智能法案》,提議成員國必須任命或建立至少一個(gè)監(jiān)督機(jī)構(gòu),負(fù)責(zé)確保 "必要的程序得到遵循"。預(yù)計(jì)該法案將被廣泛應(yīng)用于從自動駕駛汽車、聊天機(jī)器人到自動化工廠等各個(gè)領(lǐng)域。
其實(shí),討論ChatGPT的安全性,以及人類的工作是否會被人工智能所取代,最終歸根結(jié)底可能就是圍繞一個(gè)命題:到底是人工智能來控制人類,還是人類來控制人工智能。如果人工智能得到良性發(fā)展,輔助人類提高工作效率、加速社會進(jìn)步,相應(yīng)的,我們的網(wǎng)絡(luò)也是安全的,而如果人類不能控制人工智能,讓它朝向朝向失序的方向發(fā)展,那必然是一個(gè)處處充滿攻擊及威脅的網(wǎng)絡(luò)環(huán)境,到那時(shí),網(wǎng)絡(luò)安全恐將不再是“紅藍(lán)之間的小打小鬧”,而將是對整個(gè)人類社會秩序的顛覆。


2018-08-21 16:54:03




