自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

大語言模型能讓暗網(wǎng)中的數(shù)據(jù)“改邪歸正”嗎?

安全
近日,韓國科學技術院 (KAIST) 的一個研究團隊發(fā)布了一款可應用于網(wǎng)絡安全領域的大語言模型工具——DarkBERT,這是一個專門從暗網(wǎng)獲取數(shù)據(jù)進行訓練的LLM。DarkBERT并非出于惡意目的而創(chuàng)建,研究人員的目標是創(chuàng)造一種超越現(xiàn)有安全方案的智能化暗網(wǎng)威脅監(jiān)控工具,幫助威脅研究人員、執(zhí)法機構(gòu)和網(wǎng)絡安全分析師打擊網(wǎng)絡威脅。

在理想的世界中,我們希望各種先進的技術能夠在“陽光”下被使用,然而,現(xiàn)實世界從來不是烏托邦。

眾所周知,“暗網(wǎng)”一直都是各種非法網(wǎng)絡活動的庇護所,甚至是滋生罪惡的溫床,以窩藏非法匿名網(wǎng)站和支持非法活動(例如交易被盜數(shù)據(jù)、毒品和武器)而臭名昭著。但是,暗網(wǎng)中也存在大量的商業(yè)數(shù)據(jù)和個人信息,而其中的很多數(shù)據(jù)是在公開網(wǎng)絡中難以獲取到的。試想一下,如果用暗網(wǎng)中的數(shù)據(jù)訓練AI,將會發(fā)生什么?

近日,韓國科學技術院 (KAIST) 的一個研究團隊發(fā)布了一款可應用于網(wǎng)絡安全領域的大語言模型工具——DarkBERT,這是一個專門從暗網(wǎng)獲取數(shù)據(jù)進行訓練的LLM。DarkBERT并非出于惡意目的而創(chuàng)建,研究人員的目標是創(chuàng)造一種超越現(xiàn)有安全方案的智能化暗網(wǎng)威脅監(jiān)控工具,幫助威脅研究人員、執(zhí)法機構(gòu)和網(wǎng)絡安全分析師打擊網(wǎng)絡威脅。

據(jù)了解,此次發(fā)布的DarkBERT工具,是一個基于RoBERTa架構(gòu)的transformer-based編碼器模型。該模型目前已經(jīng)接受了數(shù)百萬個暗網(wǎng)網(wǎng)頁的訓練,全面包括了來自地下黑客論壇、詐騙網(wǎng)站和其他非法網(wǎng)站的數(shù)據(jù)。為了訓練DarkBERT,研究人員會通過Tor網(wǎng)絡進入暗網(wǎng)并收集原始數(shù)據(jù),然后創(chuàng)建一個可以不斷完善的暗網(wǎng)數(shù)據(jù)資料庫,并在兩周內(nèi)將更新后的數(shù)據(jù)提供給RoBERTa。

該研究團隊表示,即使是從最不尋常的來源所收集的數(shù)據(jù),也可以訓練出有用的人工智能模型。盡管一些人可能會擔心暗網(wǎng)數(shù)據(jù)會帶有天然的“邪惡”屬性,并可能對DarkBERT造成不好的影響,但我們認為,在AI技術迅速發(fā)展的今天,需要更加關注如何讓這些數(shù)據(jù)能夠在受控和透明的環(huán)境下運行,并確保他們產(chǎn)生對社會有利的價值。

為了評估DarkBERT的有效性,研究人員將其與兩個著名的NLP工具BERT和RoBERTa進行了比較,并從以下三個關鍵網(wǎng)絡安全場景評估DarkBERT的實際可用性:

監(jiān)控暗網(wǎng)論壇潛在的有害線程

監(jiān)控暗網(wǎng)論壇(通常用于交換非法信息)對于識別潛在的危險線程至關重要。由于人工檢查非常耗時,因此自動化過程對安全專家來說不可或缺。評估結(jié)果顯示,DarkBERT在準確率、召回率和漏報率方面的表現(xiàn)均不同程度優(yōu)于其他兩種工具。

檢測包含機密信息的暗網(wǎng)站點

黑客和勒索軟件組織會利用暗網(wǎng)創(chuàng)建泄密網(wǎng)站,供各種網(wǎng)絡犯罪分子將竊取的敏感數(shù)據(jù)(如密碼和財務信息)上傳到暗網(wǎng),并以此進行牟利。在研究中,研究人員收集了臭名昭著的勒索軟件組織的數(shù)據(jù),并分析了發(fā)布組織私人數(shù)據(jù)的勒索軟件泄漏站點。結(jié)果顯示,DarkBERT在識別和分類此類網(wǎng)站方面優(yōu)于其他兩種工具,原因在于它對暗網(wǎng)論壇中所使用的語言有更好的理解。

識別暗網(wǎng)威脅關鍵字

DarkBERT可以利用BERT家族語言模型的固有特征進行暗語轉(zhuǎn)化,從而準確識別與非法活動相關的關鍵字,例如暗網(wǎng)上的毒品銷售。評估結(jié)果顯示,當“MDMA”這個詞被隱藏在藥品銷售頁面上時,DarkBERT生成了與毒品相關的單詞,而其他工具則顯示了與毒品無關的一般單詞和術語,比如各種職業(yè)。

以上評估結(jié)果表明,DarkBERT模型對網(wǎng)絡罪犯的語言有著非凡的理解能力,并善于發(fā)現(xiàn)特定的潛在威脅。它可以幫助安全人員更好地研究暗網(wǎng),并成功識別和標記數(shù)據(jù)泄露及勒索軟件等網(wǎng)絡安全威脅,成為打擊網(wǎng)絡安全犯罪活動的有力工具。

DarkBERT目前還并不向公眾開放,只接受部分將其用于學術研究目的的應用請求。因為像其他LLM模型一樣,DarkBERT還是一個尚在發(fā)展中的模型,有許多地方還需要通過不斷的訓練和調(diào)整去優(yōu)化。創(chuàng)新模型的出現(xiàn)將會提高現(xiàn)有網(wǎng)絡安全防護體系的能力和性能,但同時,也必須要關注其可能帶來的新挑戰(zhàn)和問題,例如數(shù)據(jù)隱私、自主決策等方面的問題,需要得到充分的重視和解決。

參考鏈接:

https://www.makeuseof.com/what-is-darkbert-ai/。

https://cybersecuritynews.com/darkbert-ai/。

責任編輯:姜華 來源: 安全牛
相關推薦

2023-05-31 15:15:53

2023-05-25 14:28:47

DarkBERT自暗網(wǎng)AI

2024-03-11 14:56:10

2018-07-31 14:58:08

2024-09-12 14:15:44

2020-12-23 16:08:15

比特幣互聯(lián)網(wǎng)技術

2015-04-16 10:27:47

2024-03-25 14:57:01

2018-10-26 08:30:10

暗網(wǎng)網(wǎng)絡定價

2023-11-01 07:34:04

大語言模型應用協(xié)議識別

2021-03-28 09:37:35

竊取數(shù)據(jù)暗網(wǎng)安全

2024-01-09 15:35:13

2016-12-15 16:16:47

2022-11-25 14:45:07

2025-04-22 08:08:37

2021-01-19 09:40:24

暗網(wǎng)網(wǎng)絡安全漏洞

2017-08-01 06:14:49

2020-04-01 10:34:00

暗網(wǎng)自動化攻擊數(shù)據(jù)庫泄露

2024-07-22 09:10:04

大語言模型推薦系統(tǒng)人工智能

2025-03-21 14:34:17

點贊
收藏

51CTO技術棧公眾號