自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

八張GPU訓(xùn)出近SOTA模型,超低成本圖像生成預(yù)訓(xùn)練方案開源

人工智能
模型名為L(zhǎng)ightGen,由港科大Harry Yang團(tuán)隊(duì)聯(lián)合Everlyn AI等機(jī)構(gòu)打造,借助知識(shí)蒸餾(KD)和直接偏好優(yōu)化(DPO)策略,有效壓縮了大規(guī)模圖像生成模型的訓(xùn)練流程。

超低成本圖像生成預(yù)訓(xùn)練方案來了——

僅需8張GPU訓(xùn)練,就能實(shí)現(xiàn)近SOTA的高質(zhì)量圖像生成效果。

劃重點(diǎn):開源。

圖片圖片

模型名為LightGen,由港科大Harry Yang團(tuán)隊(duì)聯(lián)合Everlyn AI等機(jī)構(gòu)打造,借助知識(shí)蒸餾(KD)直接偏好優(yōu)化(DPO)策略,有效壓縮了大規(guī)模圖像生成模型的訓(xùn)練流程。

LightGen不僅顯著降低了數(shù)據(jù)規(guī)模與計(jì)算資源需求,而且在高質(zhì)量圖像生成任務(wù)上展現(xiàn)了與SOTA模型相媲美的性能。

圖片圖片

圖像inpainting效果belike:

圖片圖片

LightGen相較于現(xiàn)有的生成模型,盡管參數(shù)量更小、預(yù)訓(xùn)練數(shù)據(jù)規(guī)模更精簡(jiǎn),卻在geneval圖像生成任務(wù)的基準(zhǔn)評(píng)測(cè)中甚至超出了部分最先進(jìn)SOTA模型。

此外,LightGen在效率與性能之間實(shí)現(xiàn)了良好的平衡,成功地將傳統(tǒng)上需要數(shù)千GPU days的預(yù)訓(xùn)練過程縮短至僅88個(gè)GPU days,即可完成高質(zhì)量圖像生成模型的訓(xùn)練。

以下是更多細(xì)節(jié)。

LightGen長(zhǎng)啥樣?

文本到圖像(Text-to-Image, T2I)生成任務(wù)近年來取得了飛速進(jìn)展,其中以擴(kuò)散模型(如Stable Diffusion、DiT等)和自回歸(AR)模型為代表的方法取得了顯著成果。

然而,這些主流的生成模型通常依賴于超大規(guī)模的數(shù)據(jù)集和巨大的參數(shù)量,導(dǎo)致計(jì)算成本高昂、落地困難,難以高效地應(yīng)用于實(shí)際生產(chǎn)環(huán)境。

為了解決這一難題,香港科技大學(xué)Harry Yang教授團(tuán)隊(duì)聯(lián)合Everlyn AI和UCF,提出了LightGen這一新型高效圖像生成模型,致力于在有限的數(shù)據(jù)和計(jì)算資源下,快速實(shí)現(xiàn)高質(zhì)量圖像的生成,推動(dòng)自回歸模型在視覺生成領(lǐng)域更高效、更務(wù)實(shí)地發(fā)展與應(yīng)用。

圖片圖片

LightGen采用的訓(xùn)練流程主要包括以下關(guān)鍵步驟:

一、數(shù)據(jù)KD

利用當(dāng)前SOTA的T2I模型,生成包含豐富語義的高質(zhì)量合成圖像數(shù)據(jù)集。

這一數(shù)據(jù)集的圖像具有較高的視覺多樣性,同時(shí)包含由最先進(jìn)的大型多模態(tài)語言模型(如GPT-4o)生成的豐富多樣的文本標(biāo)注,從而確保訓(xùn)練數(shù)據(jù)在文本和圖像兩個(gè)維度上的多樣性。

二、DPO后處理

由于合成數(shù)據(jù)在高頻細(xì)節(jié)和空間位置捕獲上的不足,作者引入了直接偏好優(yōu)化技術(shù)作為后處理手段,通過微調(diào)模型參數(shù)優(yōu)化生成圖像與參考圖像之間的差異,有效提升圖像細(xì)節(jié)和空間關(guān)系的準(zhǔn)確性,增強(qiáng)了生成圖像的質(zhì)量與魯棒性。

通過以上方法,LightGen顯著降低了圖像生成模型的訓(xùn)練成本與計(jì)算需求,展現(xiàn)了在資源受限環(huán)境下獲取高效、高質(zhì)量圖像生成模型的潛力。

圖片

實(shí)驗(yàn)效果如何?

作者通過實(shí)驗(yàn)對(duì)比了LightGen與現(xiàn)有的多種SOTA的T2I生成模型,使用GenEval作為benchmark來驗(yàn)證LightGen模型和其它開源模型的性能。

結(jié)果表明,LightGen模型在模型參數(shù)和訓(xùn)練數(shù)量都小于其它模型的的前提下,在256×256和512×512分辨率下的圖像生成任務(wù)中的表現(xiàn)均接近或超過現(xiàn)有的SOTA模型。

圖片圖片

LightGen在單物體、雙物體以及顏色合成任務(wù)上明顯優(yōu)于擴(kuò)散模型和自回歸模型,在不使用DPO方法的情況下,分別達(dá)到0.49(80k步訓(xùn)練)和0.53的整體性能分?jǐn)?shù)。

在更高的512×512分辨率上,LightGen達(dá)到了可比肩當(dāng)前SOTA模型的成績(jī),整體性能分?jǐn)?shù)達(dá)到0.62,幾乎超過所有現(xiàn)有方法。

特別地,加入DPO方法后,模型在位置準(zhǔn)確性和高頻細(xì)節(jié)方面的表現(xiàn)始終穩(wěn)定提升,這體現(xiàn)了DPO在解決合成數(shù)據(jù)缺陷上的有效性。

除此之外,消融實(shí)驗(yàn)結(jié)果顯示,當(dāng)數(shù)據(jù)規(guī)模達(dá)到約100萬張圖像時(shí),性能提升會(huì)遇到瓶頸,進(jìn)一步增加數(shù)據(jù)規(guī)模帶來的收益很有限。因此,作者最終選擇了200萬張圖像作為最優(yōu)的預(yù)訓(xùn)練數(shù)據(jù)規(guī)模。

圖片圖片

上圖(b)探討了不同訓(xùn)練迭代次數(shù)對(duì)GenEval在256與512分辨率下性能的影響。

值得注意的是,在256像素階段,僅經(jīng)過80k訓(xùn)練步數(shù)便能達(dá)到相當(dāng)不錯(cuò)的性能,這突顯了數(shù)據(jù)蒸餾方法在訓(xùn)練效率上的優(yōu)勢(shì)。

團(tuán)隊(duì)表示,未來研究可進(jìn)一步探索該方法在其他生成任務(wù)(如視頻生成)上的應(yīng)用,推動(dòng)高效、低資源需求的生成模型進(jìn)一步發(fā)展。

論文鏈接:https://arxiv.org/abs/2503.08619
模型鏈接:https://huggingface.co/Beckham808/LightGen
項(xiàng)目鏈接:https://github.com/XianfengWu01/LightGen

責(zé)任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2025-03-13 12:39:22

2025-04-02 09:00:00

模型開源AI

2025-03-19 10:41:11

2022-11-09 13:53:45

AI圖像

2022-06-30 08:55:15

DDoSWAF網(wǎng)絡(luò)攻擊

2025-03-13 10:26:45

2024-03-22 15:08:47

CLIP機(jī)器學(xué)習(xí)人工智能

2022-06-30 11:03:27

DDoS攻擊WAF

2023-07-18 15:05:00

開源大模型

2022-10-19 14:03:45

開源AI

2024-01-05 07:55:39

Linux虛擬內(nèi)存

2012-01-11 21:56:15

噴墨打印機(jī)推薦

2025-02-18 10:54:04

2020-03-17 09:42:00

谷歌開源機(jī)器學(xué)習(xí)

2009-08-14 10:27:24

校園網(wǎng)絡(luò)管理 網(wǎng)絡(luò)安全網(wǎng)絡(luò)安全網(wǎng)絡(luò)成本

2022-12-05 10:08:59

2021-06-15 10:07:13

AI 數(shù)據(jù)人工智能

2023-10-18 12:50:12

數(shù)據(jù)模型

2021-01-20 06:02:24

數(shù)據(jù)分析驅(qū)動(dòng)

2011-07-05 15:39:50

FTTH
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)