自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

引領(lǐng)圖像編輯領(lǐng)域的新潮流!Edicho:實(shí)現(xiàn)跨圖像一致編輯的新方法(港科&螞蟻&斯坦福)

人工智能 新聞
本文提出的Edicho方法通過(guò)引入顯式的對(duì)應(yīng)關(guān)系預(yù)測(cè),實(shí)現(xiàn)了跨圖像的一致編輯。該方法增強(qiáng)了自注意力機(jī)制和無(wú)分類(lèi)器指導(dǎo)計(jì)算,確保了編輯效果的一致性和高質(zhì)量。

本文經(jīng)AIGC Studio公眾號(hào)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

在圖像處理領(lǐng)域,如何實(shí)現(xiàn)跨圖像的一致編輯一直是技術(shù)挑戰(zhàn)。傳統(tǒng)方法往往局限于單張圖像的編輯,難以保證多張圖像間編輯效果的一致性。香港科技大學(xué)、螞蟻集團(tuán)、斯坦福大學(xué)和香港中文大學(xué)聯(lián)合提出Edicho,這一難題迎來(lái)了全新的解決方案。 總結(jié)如下:

  1. 無(wú)訓(xùn)練編輯方法:
  • 核心創(chuàng)新:Edicho作為一種無(wú)訓(xùn)練的圖像編輯方法,無(wú)需復(fù)雜的模型訓(xùn)練過(guò)程,即可實(shí)現(xiàn)高效、一致的圖像編輯。
  • 技術(shù)原理:該方法基于擴(kuò)散模型,通過(guò)顯式對(duì)應(yīng)關(guān)系來(lái)指導(dǎo)編輯過(guò)程,確保編輯效果在不同圖像間的一致性。
  1. 顯式對(duì)應(yīng)關(guān)系:
  • 關(guān)鍵組件:Edicho包括一個(gè)注意力操縱模塊和一個(gè)精細(xì)調(diào)整的分類(lèi)器無(wú)關(guān)指導(dǎo)(CFG)去噪策略,兩者都考慮了預(yù)估對(duì)應(yīng)關(guān)系。
  • 優(yōu)勢(shì)所在:通過(guò)顯式對(duì)應(yīng)關(guān)系,Edicho能夠更準(zhǔn)確地捕捉和轉(zhuǎn)移圖像間的特征,從而實(shí)現(xiàn)更自然、更一致的編輯效果。
  1. 廣泛適用性:
  • 兼容性強(qiáng):Edicho具有即插即用的特性,兼容大多數(shù)基于擴(kuò)散的編輯方法,如ControlNet和BrushNet。
  • 應(yīng)用場(chǎng)景:該方法可廣泛應(yīng)用于個(gè)性化內(nèi)容生成、跨視角紋理應(yīng)用等實(shí)用場(chǎng)景,為內(nèi)容創(chuàng)作者提供了更多可能性。

Edicho的提出不僅解決了跨圖像一致編輯的技術(shù)難題,還為圖像處理領(lǐng)域帶來(lái)了全新的思路和方法。圖片

相關(guān)鏈接

  • 論文:http://arxiv.org/abs/2412.21079v2
  • 主頁(yè):https://ezioby.github.io/edicho/

Edicho:實(shí)現(xiàn)跨圖像一致編輯的新方法

圖片

一、引言

研究背景:在圖像編輯領(lǐng)域,確保編輯內(nèi)容在不同圖像間的一致性是一個(gè)重要但具有挑戰(zhàn)性的任務(wù)。內(nèi)容創(chuàng)作者常常希望能夠在多張照片上應(yīng)用相同的編輯效果,如讓多張照片中的人物都擁有相似的妝容或服裝風(fēng)格。

現(xiàn)有問(wèn)題:以往的編輯方法往往基于單張圖像進(jìn)行處理,這導(dǎo)致了在不同圖像間應(yīng)用相同編輯時(shí)可能出現(xiàn)的不一致性和扭曲。

Edicho提出:本文介紹的Edicho方法通過(guò)引入顯式的對(duì)應(yīng)關(guān)系預(yù)測(cè),實(shí)現(xiàn)了跨圖像的一致編輯,大大提高了編輯效率和質(zhì)量。

二、相關(guān)工作

擴(kuò)散模型的應(yīng)用:近年來(lái),擴(kuò)散模型在圖像生成和編輯領(lǐng)域取得了顯著成果。通過(guò)空間對(duì)齊中間特征和融合無(wú)條件嵌入,擴(kuò)散模型能夠增強(qiáng)編輯的一致性。

基于范例的編輯:另一類(lèi)工作是通過(guò)微調(diào)預(yù)訓(xùn)練的擴(kuò)散模型,使其能夠基于范例圖像和掩碼源圖像進(jìn)行編輯。這類(lèi)方法雖然有效,但在處理野生圖像時(shí)仍面臨挑戰(zhàn)。

三、方法概述

圖片

  • 核心組件:Edicho方法主要包括兩個(gè)核心組件:注意力操控模塊和精心優(yōu)化的無(wú)分類(lèi)器指導(dǎo)(CFG)去噪策略。
  • 注意力操控模塊:該模塊利用顯式的對(duì)應(yīng)關(guān)系預(yù)測(cè)來(lái)增強(qiáng)自注意力機(jī)制,確保編輯效果在不同圖像間的一致性。
  • CFG去噪策略:通過(guò)注入預(yù)計(jì)算的對(duì)應(yīng)關(guān)系,指導(dǎo)兩個(gè)級(jí)別的去噪過(guò)程:注意力特征和噪聲潛變量。
  • 顯式對(duì)應(yīng)關(guān)系預(yù)測(cè):與隱式對(duì)應(yīng)關(guān)系預(yù)測(cè)相比,顯式對(duì)應(yīng)關(guān)系更加準(zhǔn)確和穩(wěn)定,能夠更好地處理野生圖像間的內(nèi)在變化。

四、實(shí)驗(yàn)驗(yàn)證

數(shù)據(jù)集與評(píng)估指標(biāo):實(shí)驗(yàn)采用了部分來(lái)自互聯(lián)網(wǎng)和部分來(lái)自DreamBooth及Custom Diffusion數(shù)據(jù)集的樣本,并使用CLIP模型進(jìn)行文本對(duì)齊評(píng)估。

圖片

實(shí)驗(yàn)結(jié)果:Edicho方法在多種修改場(chǎng)景下均保持了輸入圖像的完整性,包括衣物紋理、面具和領(lǐng)口外觀等。與基于隱式注意力的基線方法相比,Edicho在一致性和主題貼合度方面均表現(xiàn)出色。

圖片圖片

五、應(yīng)用示例

定制化生成:通過(guò)編輯,Edicho能夠生成更加一致的圖像集,這對(duì)于學(xué)習(xí)新穎概念的自定義模型和創(chuàng)建個(gè)性化內(nèi)容具有重要價(jià)值。

新概念生成與編輯:通過(guò)引入低秩矩陣作為適應(yīng)參數(shù),微調(diào)后的生成模型能夠根據(jù)編輯生成與期望相符的圖像,從而實(shí)現(xiàn)新概念生成和編輯。

六、結(jié)論與展望

研究總結(jié):本文提出的Edicho方法通過(guò)引入顯式的對(duì)應(yīng)關(guān)系預(yù)測(cè),實(shí)現(xiàn)了跨圖像的一致編輯。該方法增強(qiáng)了自注意力機(jī)制和無(wú)分類(lèi)器指導(dǎo)計(jì)算,確保了編輯效果的一致性和高質(zhì)量。

未來(lái)展望:隨著技術(shù)的不斷發(fā)展,Edicho方法有望在更多領(lǐng)域得到應(yīng)用,如虛擬現(xiàn)實(shí)、增強(qiáng)現(xiàn)實(shí)以及圖像修復(fù)等。同時(shí),我們也期待更多創(chuàng)新方法的出現(xiàn),共同推動(dòng)圖像編輯領(lǐng)域的發(fā)展。

責(zé)任編輯:張燕妮 來(lái)源: AIGC Studio
相關(guān)推薦

2013-10-28 16:24:44

2025-01-17 10:30:00

2019-04-03 15:00:47

Python圖像編輯工具

2015-07-28 16:34:50

Linux桌面

2020-08-22 07:46:58

Photoflare開(kāi)源圖像編輯器

2018-07-02 16:54:10

云PBX

2025-03-25 11:29:11

2021-05-17 10:05:08

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)圖形

2023-01-02 13:12:07

模型圖像

2024-03-11 09:37:01

模型圖片編輯

2012-03-28 15:25:52

2009-02-17 16:21:07

全觸控手機(jī)操作系統(tǒng)Azingo Mobi

2021-02-16 09:37:01

Filmulator開(kāi)源圖像編輯器

2014-06-05 11:19:32

云模式智能家居

2024-08-20 09:30:00

GenAI智能體

2014-08-13 16:41:57

SDN數(shù)據(jù)中心華為

2019-07-12 13:50:36

物聯(lián)網(wǎng)大數(shù)據(jù)安全

2024-10-25 14:35:34

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)