研究人員使用特殊圖像“毒害”人工智能
DALL-E、Midjourney和Stable Diffusion等人工智能生成藝術工具的興起引發(fā)了激烈的辯論和爭議。這些系統(tǒng)可以通過在互聯(lián)網上收集的大量數(shù)據(jù)集上進行訓練,簡單地根據(jù)文本提示創(chuàng)建真實感圖像和藝術。然而,這引發(fā)了人們對侵犯版權、濫用藝術家作品的主要擔憂。
因此研究人員開發(fā)了一種名為Nightshade的激進新技術,允許創(chuàng)意人員“毒害”他們的數(shù)字藝術。其目的是破壞試圖在未經許可的情況下使用他們作品的人工智能系統(tǒng)。
DALL-E 2和Stable Diffusion等工具使用一種稱為神經網絡的人工智能技術。他們是在大量的圖像數(shù)據(jù)集上訓練的,這些圖像與字幕或文本描述配對。這使他們能夠學習文本概念和視覺特征之間的關系。
例如,如果模型看到數(shù)百萬張標有“狗”的圖像,顯示皮毛、四條腿、尾巴等,它就會學會將這些視覺模式與“狗”一詞聯(lián)系起來。然后,當收到“一只可愛的小狗坐在草地上”這樣的文本提示時,它就可以從頭開始生成全新的逼真的小狗圖像。
抓取藝術家作品的擔憂
隨著對更多數(shù)據(jù)的訓練,模型變得更有能力。這導致他們背后的科技巨頭在未經藝術家同意的情況下從互聯(lián)網上抓取了數(shù)百萬張圖片。然而,許多創(chuàng)作者對他們的作品在未經許可或補償?shù)那闆r下被用于人工智能培訓感到不滿。
這給藝術家們帶來了一個困境——公開分享他們的作品,冒著人工智能訓練被濫用的風險,還是私有化,失去曝光率?Instagram、DeviantArt和ArtStation等平臺已成為人工智能系統(tǒng)的訓練數(shù)據(jù)寶庫。
Nightshade如何為人工智能模型注入毒藥
根據(jù)最近的一篇研究論文,Nightshade通過攻擊和破壞人工智能模型本身提供了一個聰明的解決方案。人類看不見這些數(shù)字藝術像素中微妙的變化。但這些調整擾亂了人工智能所依賴的圖像概念和文本提示。
例如,Nightshade可以修改狗的照片,使人工智能模型將其誤認為自行車或帽子。如果有足夠多的“中毒”圖像通過人工智能的數(shù)據(jù)集傳播,就會產生文本和圖像之間奇怪聯(lián)系的幻覺。
測試表明,Nightshade可以導致Stable Diffusion等人工智能模型生成完全超現(xiàn)實和荒謬的藝術。例如,狗的圖像變成了“章魚”這樣的多腳生物,在50個中毒樣本后扭曲了卡通臉。在攝入300張“中毒”狗的照片后,Stable Diffusion甚至在提示創(chuàng)建狗時輸出貓。
Nightshade的攻擊利用了神經網絡的黑盒特性。中毒原因在龐大的數(shù)據(jù)集中很難追蹤。這意味著刪除毒藥數(shù)據(jù)就像大海撈針。
攻擊也在相關概念之間傳播。因此,毒害“幻想藝術”圖像也會在“龍”或“城堡”等相關術語上混淆人工智能。這使得手動清理Nightshade的影響幾乎不可能大規(guī)模進行。