麻省理工學(xué)院開發(fā)“PhotoGuard”技術(shù), 保護圖像免受惡意 AI 編輯
7 月 25 日消息,隨著基于 AI 的深度偽造技術(shù)不斷提高,人們愈發(fā)難以僅憑肉眼分辨“哪些內(nèi)容是 AI 偽造的”,麻省理工學(xué)院日前宣布了一項名為 Photoguard 的技術(shù),經(jīng)過 Photoguard 技術(shù)處理的圖片難以直接被 AI 識別篡改,有助于防止圖片被爬蟲修改后遭到誤讀。
據(jù)悉,這一“PhotoGuard”技術(shù)主要是通過對圖像進行微小的修改,來防止 AI 識別出圖像內(nèi)容。該技術(shù)提供了兩種阻止圖片被 AI 修改的方案,一種是 “編碼器” 法,通過修改圖像的像素來干擾算法模型對圖像的理解能力;另一種是 “擴散” 法讓 AI 以為圖片甲是圖片乙,從而生成錯誤的圖像。
不過IT之家經(jīng)過查詢得知,該技術(shù)實際上應(yīng)用空間有限,研究人員警告,PhotoGuard 技術(shù)更多適用于反爬蟲場景,技術(shù)本身也有一定局限性,攻擊者只需要裁剪或翻轉(zhuǎn)經(jīng)過處理的圖片,即可破解該技術(shù)。
研究人員表示,除技術(shù)外,解決 AI 造假還需要模型開發(fā)者、社交媒體平臺和相關(guān)部門共同努力,才能提供一個全面的“反 AI 造假”解決方案。