自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

可令 AI 模型“輸入狗生成貓”,黑客展示為訓練數(shù)據(jù)集“下毒”的 Nightshade 工具

人工智能
日前有黑客展示了一款名為 Nightshade 的工具,該工具可在不破壞觀感的情況下輕微修改圖片,若有 AI 模型在訓練時使用了這些被“下毒”的圖片,模型生圖結(jié)果便會被毀壞。

10 月 25 日消息,AI 大模型訓練數(shù)據(jù)源版權(quán)問題一直是一個令業(yè)界頭疼的問題,日前有黑客展示了一款名為 Nightshade 的工具,該工具可在不破壞觀感的情況下輕微修改圖片,若有 AI 模型在訓練時使用了這些被“下毒”的圖片,模型生圖結(jié)果便會被毀壞。

▲ 圖源 Arxiv▲ 圖源 Arxiv

據(jù)悉,Nightshade 工具是一種專從提示詞入手的攻擊手法,號稱“手法相對目前‘在提示詞中加入觸發(fā)字’的后門攻擊法更簡單”,不需介入模型的訓練及部署等過程。

Nightshade 工具的作用,主要是輕微修改圖片內(nèi)容,當這些被修改的圖片內(nèi)容成為 AI 模型訓練數(shù)據(jù)后,整個 AI 模型就有可能被徹底破壞。黑客選擇了 Stability AI 的 Stable Diffusion V2、SDXL 及 DeepFloyd 驗證攻擊效果。

測試顯示,只需要少量“下毒樣本”就擾亂 AI 模型的文生圖模型。黑客使用不到 100 張經(jīng)過修改的“狗的照片”,便污染了 SDXL 模型已經(jīng)養(yǎng)成的“狗”概念,使該模型在接受外界輸入“生成狗的圖片”提示后,反而生成了貓的圖片。

▲ 圖源 Arxiv▲ 圖源 Arxiv

此外,Nightshade 攻擊并非針對單一實體“概念”,雖然黑客僅僅用一些“狗的照片”試圖破壞模型對于“狗”的概念,但整個模型的生圖結(jié)果,都會被徹底破壞。

▲ 圖源 Arxiv▲ 圖源 Arxiv

IT之家同時發(fā)現(xiàn),黑客聲稱,經(jīng)過 Nightshade 工具“下毒”的圖片難以辨別,因為該工具主要影響訓練數(shù)據(jù)集的“特征空間”。

Nightshade 是屬于內(nèi)容創(chuàng)作者及持有者的工具,是對待‘不尊重版權(quán)聲明’、或‘故意繞過 do-not-scrape / crawl opt-out’的 AI 從業(yè)者的強大武器。

責任編輯:龐桂玉 來源: IT之家
相關(guān)推薦

2023-07-31 18:07:57

2023-11-10 07:11:02

OpenAIAI

2024-01-23 11:22:53

谷歌大語言模型AI

2023-12-18 15:54:42

AI 模型

2023-12-17 19:38:37

谷歌AI 模型人工智能

2024-03-13 09:00:00

人工智能Nightshade人工智能毒化

2025-02-24 08:40:00

神經(jīng)網(wǎng)絡(luò)模型矩陣變換

2009-11-11 15:41:29

ADO數(shù)據(jù)對象

2024-07-12 12:55:55

2019-11-05 18:50:37

代碼開發(fā)工具

2023-05-31 14:23:44

人工智能

2020-03-31 10:13:04

Google 開源技術(shù)

2020-11-19 18:10:46

格物鈦

2020-04-28 13:34:53

AI 工具算法

2025-04-01 09:54:09

AI算法大模型AI

2023-02-27 09:17:02

蘋果設(shè)備AI模型

2023-10-31 12:45:00

智能數(shù)據(jù)

2023-03-31 14:33:49

人工智能數(shù)據(jù)開發(fā)自然語言

2024-01-15 14:44:19

語言模型PaLMAI
點贊
收藏

51CTO技術(shù)棧公眾號