自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

小紅書等給AI圖像檢測上難度!數(shù)據(jù)集均通過人類感知“圖靈測試” | ICLR 2025

人工智能 新聞
來自小紅書生態(tài)算法團隊、中科大、上海交通大學(xué)聯(lián)合提出行業(yè)稀缺的全人工標(biāo)注Chameleon基準和行業(yè)領(lǐng)先的AIDE檢測方法。

:圖像分辨率從720P到4K不等,提供了更高質(zhì)量的圖像數(shù)據(jù),增加了檢測模型的挑戰(zhàn)性。

AIDE模型:多專家融合的檢測框架

在AI生成圖像檢測領(lǐng)域,現(xiàn)有的檢測方法往往只能從單一角度進行分析,難以全面捕捉AI生成圖像與真實圖像之間的細微差異。

為了解決這一問題,研究者們提出了簡單且有效的AIDE(AI-generated Image DEtector with Hybrid Features)模型,該模型通過融合多種專家模塊,從低級像素統(tǒng)計和高級語義兩個層面全面捕捉圖像特征,實現(xiàn)了對AI生成圖像的精準檢測。

AIDE模型主要由兩個核心模塊組成:Patchwise Feature Extraction(PFE)模塊和Semantic Feature Embedding(SFE)模塊。這兩個模塊通過多專家融合的方式,共同為最終的分類決策提供豐富的特征信息。

Patchwise Feature Extraction(PFE)模塊

PFE模塊旨在捕捉圖像中的低級像素統(tǒng)計特征,特別是AI生成圖像中常見的噪聲模式和紋理異常。具體而言,該模塊通過以下步驟實現(xiàn):

Patch Selection via DCT Scoring:首先,將輸入圖像劃分為多個固定大小的圖像塊(如32×32像素)。然后,對每個圖像塊應(yīng)用離散余弦變換(DCT),將其轉(zhuǎn)換到頻域。通過設(shè)計不同的帶通濾波器,計算每個圖像塊的頻率復(fù)雜度得分,從而識別出最高頻率和最低頻率的圖像塊。

Patchwise Feature Encoder:將篩選出的高頻和低頻圖像塊調(diào)整為統(tǒng)一大?。ㄈ?56×256像素),并輸入到SRM(Spatial Rich Model)濾波器中提取噪聲模式特征。這些特征隨后通過兩個ResNet-50網(wǎng)絡(luò)進行進一步處理,得到最終的特征圖。

Semantic Feature Embedding(SFE)模塊

SFE模塊旨在捕捉圖像中的高級語義特征,特別是物體共現(xiàn)和上下文關(guān)系等。具體而言,該模塊通過以下步驟實現(xiàn):

Semantic Feature Embedding:利用預(yù)訓(xùn)練的OpenCLIP模型對輸入圖像進行全局語義編碼,得到圖像的視覺嵌入特征。通過添加線性投影層和平均空間池化操作,進一步提取圖像的全局上下文信息。

Discriminator模塊

將PFE和SFE模塊提取的特征在通道維度上進行融合,通過多層感知機(MLP)進行最終的分類預(yù)測。具體而言,首先對高頻和低頻特征圖進行平均池化,得到低級特征表示;然后將其與高級語義特征進行通道級拼接,形成最終的特征向量;最后通過MLP網(wǎng)絡(luò)輸出分類結(jié)果。

實驗結(jié)果

數(shù)據(jù)集:實驗在AIGCDetectBenchmark、GenImage和Chameleon三個數(shù)據(jù)集上進行。AIGCDetectBenchmark和GenImage是現(xiàn)有的基準測試數(shù)據(jù)集,而Chameleon是研究者們新構(gòu)建的更具挑戰(zhàn)性的數(shù)據(jù)集。

模型對比:研究者選擇了9種現(xiàn)成的AI生成圖像檢測器進行對比,包括CNNSpot、FreDect、Fusing、LNP、LGrad、UnivFD、DIRE、PatchCraft和NPR。

評價指標(biāo):實驗采用分類準確率(Accuracy)和平均精度(Average Precision, AP)作為評價指標(biāo)。

團隊評測了AIDE在AIGCDetectBenchmark和GenImage上的結(jié)果,如下表所示:

AIDE模型在這兩個數(shù)據(jù)集上的優(yōu)異表現(xiàn)表明,融合低級像素統(tǒng)計和高級語義特征的方法能夠有效捕捉AI生成圖像與真實圖像之間的差異,從而提高檢測準確率。

隨后在Chameleon benchmark上測評了9個現(xiàn)有的detectors,如下表所示。

同時團隊可視化了,之前的SOTA方法PatchCraft在AIGCDetectBenchmark & GenImage 以及Chameleon上的表現(xiàn)

結(jié)果表明,之前在AIGCDetectBenchmark &GenImage上表現(xiàn)優(yōu)異的模型,在Chameleon benchmark上均表現(xiàn)很差,這表明Chameleon數(shù)據(jù)集中的圖像確實具有高度的逼真性,對現(xiàn)有檢測模型提出了更大的挑戰(zhàn)。

本論文通過對現(xiàn)有 AI 生成圖像檢測方法的重新審視,提出了一個新的問題設(shè)定,構(gòu)建了更具挑戰(zhàn)性的 Chameleon 數(shù)據(jù)集,并設(shè)計了一個融合多專家特征的檢測器 AIDE。實驗結(jié)果表明,AIDE 在現(xiàn)有的兩個流行基準(AIGCDetectBenchmark 和 GenImage)上取得了顯著的性能提升,分別比現(xiàn)有的最先進方法提高了 3.5% 和 4.6% 的準確率。然而,在 Chameleon 基準上,盡管 AIDE 取得了最好的性能,但與現(xiàn)有基準相比,仍存在較大的差距。

這表明,檢測 AI 生成圖像的任務(wù)仍然具有很大的挑戰(zhàn)性,需要未來進一步的研究和改進。希望這一工作能夠為這一領(lǐng)域的研究提供新的思路和方向,推動 AI 生成圖像檢測技術(shù)的發(fā)展。

盡管AIDE模型在AI生成圖像檢測領(lǐng)域取得了顯著進展,但研究者們?nèi)杂媱澰谖磥淼墓ぷ髦羞M一步優(yōu)化模型架構(gòu),探索更高效的特征提取和融合方法。

此外,研究者們還計劃擴大Chameleon數(shù)據(jù)集的規(guī)模,涵蓋更多類別、更多場景、更多生成模型的圖像,以推動AI生成圖像檢測技術(shù)的進一步發(fā)展。

論文: https://arxiv.org/pdf/2406.19435
主頁: https://shilinyan99.github.io/AIDE/
代碼: https://github.com/shilinyan99/AIDE

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2025-02-25 10:04:10

2023-09-01 09:52:45

AI模型

2025-03-13 09:16:25

2020-08-27 19:52:34

AI人工智能

2025-03-03 08:00:00

小紅書AI圖像檢測模型AI

2025-03-03 08:50:00

AI目標(biāo)檢測模型

2023-01-01 13:22:03

AI圖靈

2024-04-07 06:50:00

2023-06-04 13:42:50

人類AI圖靈

2023-08-17 13:30:28

AI測試

2025-01-17 14:38:40

2023-11-02 12:10:00

AI訓(xùn)練

2023-12-04 09:13:00

GPT-4測試

2022-09-20 15:28:35

AIDeepMind

2021-05-29 16:30:58

阿里云賈揚清大數(shù)據(jù)

2025-03-24 09:40:00

2025-04-03 10:00:52

2023-09-25 09:00:00

ChatGPT人工智能

2024-06-19 07:45:20

2023-10-04 20:27:02

點贊
收藏

51CTO技術(shù)棧公眾號