自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI生圖格局大震!Stable Diffusion 3開(kāi)源倒計(jì)時(shí),2B單機(jī)可跑碾壓閉源Midjourney

人工智能 新聞
重磅消息!Stable Diffusion 3,大概率會(huì)在明天開(kāi)源。距離2月SD3的橫空出世,已經(jīng)過(guò)去了4個(gè)月。如果此事為真,生圖圈子第一個(gè)出現(xiàn)開(kāi)源碾壓閉源的奇景!強(qiáng)大的MMDiT全新架構(gòu),將徹底改變AI生圖的格局。現(xiàn)在,全體AI社區(qū)都在翹首以盼。

萬(wàn)眾矚目的Stable Diffusion 3,終于要正式開(kāi)源了!

幾天前,在Computex 2024大會(huì)上,Stability AI聯(lián)合首席執(zhí)行官Christian Laforte正式官宣:SD 3 Medium將在6月12日公開(kāi)發(fā)布。

據(jù)悉,之后還會(huì)開(kāi)源4B和8B的版本。

圖片

消息一出,網(wǎng)友們就激動(dòng)地奔走相告。

圖片

種種跡象表明,SD3明天的開(kāi)源應(yīng)該是鐵板釘釘了。

目前,ComfyUI已經(jīng)提交了對(duì)SD3支持的版本。

圖片

網(wǎng)友表示,如果此事是真的,那可就太瘋狂了,生圖圈子將成第一個(gè)開(kāi)源碾壓閉源的賽道!

圖片

這邊AI生圖王者M(jìn)idjourney剛剛放出功能更新,網(wǎng)友們就在評(píng)論區(qū)紛紛留言:SD3一旦開(kāi)源,你們就完蛋了。

圖片

網(wǎng)友們紛紛搬好板凳,坐等SD3的權(quán)重發(fā)布了。

圖片

圖片

欠債1億的獨(dú)角獸,仍堅(jiān)持做開(kāi)源英雄?

兩個(gè)月前,Stable Diffusion 3一橫空出世,立刻在人類偏好評(píng)估中斬下DALL-E 3和Midjourney v6,一舉成為該領(lǐng)域的SOTA。

圖片

因?yàn)楣タ肆薃I圖像生成領(lǐng)域著名的「正確性」測(cè)試,SD3一時(shí)名聲大噪,引發(fā)了極大熱度。

圖片

雖然放出的模型效果驚艷全網(wǎng),但選擇開(kāi)源也讓公司的收入入不敷出。隨后就是滿身黑歷史的CEO跑路、人才出走等負(fù)面事件,讓Stability AI這頭獨(dú)角獸的前途風(fēng)雨飄搖,一度陷入欠下1億美元的「賣(mài)身」傳聞。

在繁榮時(shí)期的Stability AI收到過(guò)不少橄欖枝,卻斷然拒絕收購(gòu)。然而虧損超3000萬(wàn)美元、拖欠1億美元賬單的事實(shí),揭示了所有開(kāi)源公司共同的困境——

如果選擇將代碼、權(quán)重和產(chǎn)品API免費(fèi)開(kāi)放,即便保留部分高級(jí)功能,也很難吸引到付費(fèi)用戶。

圖片

如果在這種情況下,SD3依然堅(jiān)持開(kāi)源,叫Stability AI一聲「開(kāi)源英雄」絕不為過(guò)。

強(qiáng)大的架構(gòu)、更好的明暗對(duì)比度、提示遵循、訓(xùn)練結(jié)果、模型合并、圖像分辨率……SD3的開(kāi)源給我們帶來(lái)的貢獻(xiàn)可太多了!

現(xiàn)在,所有人都在翹首以盼。

將對(duì)開(kāi)源社區(qū)影響重大

Stable Diffusion3的開(kāi)源,為何意義如此重大?

在reddit的StableDiffusion社區(qū),一位網(wǎng)友給出了以下總結(jié),讓我們從非技術(shù)視角,理解SD3的重要性,以及對(duì)AI社區(qū)的重大影響。

圖片

作者表示,自己希望能讓外行人都明白,為何Stable Diffusion 3如此重要。

圖片

曾經(jīng)Stable Diffusion的開(kāi)源,就改變了游戲規(guī)則

VAE是無(wú)名英雄

VAE(變分自編碼器)非常特別,因?yàn)樗屘峁┝?6個(gè)通道的特征和顏色數(shù)據(jù)供我們使用,而之前的模型只有4個(gè)通道。

下面的四張圖顯示出,這將產(chǎn)生多大的影響。

圖片

Emu論文地址:https://arxiv.org/pdf/2309.15807

這也就意味著,模型在訓(xùn)練時(shí)會(huì)捕獲更多細(xì)節(jié)。

不僅模型的質(zhì)量會(huì)更好,而且實(shí)際上會(huì)帶來(lái)更快的訓(xùn)練速度,從而使主要的MMDiT模型(也就是實(shí)現(xiàn)生成的主要模型)能夠更好地捕捉細(xì)節(jié)。

感興趣的讀者可以閱讀下面這篇技術(shù)性解讀:

圖片

文章地址:https://huggingface.co/blog/TimothyAlexisVass/explaining-the-sdxl-latent-space#the-8-bit-pixel-space-has-3-channels

與舊的模型相比,新的16通道VAE在512x512分辨率下的表現(xiàn),可以說(shuō)令人難以置信——即使在較小的圖像尺寸下,通道維度上的特征數(shù)量也足以捕捉到很好的細(xì)節(jié)。

為了更好地說(shuō)明這一點(diǎn),我們可以用視頻領(lǐng)域的標(biāo)準(zhǔn)來(lái)做個(gè)類比——

VHS和DVD都是標(biāo)準(zhǔn)定義的480i/480p,但DVD顯然捕捉到了更多細(xì)節(jié),甚至在硬件和軟件的升頻器上表現(xiàn)也很好。

圖片

或者,可以用復(fù)古游戲玩家的說(shuō)法來(lái)類比——

- 復(fù)合視頻線(Composite cables) -> SD1.X的VAE

- S-Video線 -> SDXL的VAE

- 組件視頻線(Component cables) -> SD3的VAE

圖片

因此,將VAE應(yīng)用到如今我們的AI工作流程中,一切都將變得更加高效。

在視頻生成方面,則可以在低分辨率下訓(xùn)練以適應(yīng)虛擬內(nèi)存(VRAM),然后通過(guò)分辨率增強(qiáng)流程來(lái)保留細(xì)節(jié)。

我們不需要訓(xùn)練/微調(diào)文本編碼器了

眾所周知,訓(xùn)練文本編碼器可以提升基于SD1.X模型和SDXL模型的性能。

然而在這位網(wǎng)友看來(lái),從長(zhǎng)遠(yuǎn)來(lái)看,這其實(shí)是低效的,因?yàn)樵趯?shí)際應(yīng)用中存在大量的微調(diào)和模型合并。

這會(huì)在推理過(guò)程中導(dǎo)致大量的重新加權(quán),從而引起混亂,使得在創(chuàng)作過(guò)程中捕捉細(xì)節(jié)變得更加困難。

雖然在小規(guī)模應(yīng)用中可以這樣做,但隨著社區(qū)的擴(kuò)大,訓(xùn)練文本編碼器就變得極其繁瑣了。

從技術(shù)角度來(lái)看,CLIP模型本身就很難訓(xùn)練和微調(diào),因此如果嘗試同時(shí)處理三個(gè)模型,可能會(huì)面臨一場(chǎng)艱難的苦斗。

而現(xiàn)在,我們或許根本不需要微調(diào)文本編碼器了!

圖片

第一個(gè)原因是,VAE相比舊模型,捕捉了更多的細(xì)節(jié)。

第二個(gè)原因則是,無(wú)論我們使用哪種變體,SD3都經(jīng)過(guò)了適當(dāng)且魯棒的caption訓(xùn)練,以捕捉大多數(shù)人認(rèn)為重要的所有細(xì)節(jié)。

在SD3中,可以讓新的架構(gòu)和VAE為我們捕捉這些細(xì)節(jié),這樣我們就可以更好地利用多個(gè)LoRA模型,實(shí)現(xiàn)更魯棒的生成。

圖片

加速新的AI研究

目前,生成式AI社區(qū)和LLM社區(qū)之間還缺乏一定的協(xié)作。

在這位網(wǎng)友看來(lái),隨著MMDiT架構(gòu)更好地與LLM社區(qū)對(duì)齊,會(huì)有更多的開(kāi)發(fā)者進(jìn)入生成式AI社區(qū),帶來(lái)大量豐富的研究和方法。

這將造成的影響,或許是十分重大的。

圖片

此前,LLM社區(qū)就創(chuàng)建了很多應(yīng)用于生成式AI的偉大方法(比如LoRA就是從文本建模中派生出來(lái)的),然而,由于架構(gòu)之間缺乏互操作性操作性(當(dāng)前SD使用的是UNet,SD3使用的是Transformer塊),會(huì)讓許多人望而卻步。

如果兩個(gè)領(lǐng)域的開(kāi)發(fā)者和研究者開(kāi)始合作,擴(kuò)展許多跨領(lǐng)域的多模態(tài)功能,比如文本、圖像、音頻、視頻等,比如會(huì)創(chuàng)造出許多獨(dú)屬于開(kāi)源社區(qū)的非常棒的體驗(yàn)。

舊方法更加完善

自從Stable Diffusion誕生以來(lái),我們可以在眨眼間生成圖像、視頻、音頻,甚至3D模型。

如今在谷歌Scholar上,關(guān)于Stable Diffusion的論文已經(jīng)有7500多篇了。

微調(diào)方法、ControlNet、適配器、分段方法等理論,在SD上應(yīng)該會(huì)比從前的架構(gòu)表現(xiàn)得更好。

而且因?yàn)榧軜?gòu)簡(jiǎn)單,模型會(huì)變得更易訪問(wèn)和使用。

事實(shí)上,由于SD3的強(qiáng)大圖像-文本對(duì)齊和VAE,有些方法可能我們?cè)僖膊恍枰恕?/span>

圖片

比如在音頻擴(kuò)散、視頻擴(kuò)散和3D擴(kuò)散模型領(lǐng)域,就可以在新架構(gòu)上用這些方法訓(xùn)練,進(jìn)一步提高模型的質(zhì)量和魯棒性。

顯然,ControlNets和適配器會(huì)變得更好,因?yàn)镾D3實(shí)際上是使用多模態(tài)架構(gòu)構(gòu)建的。

這也就意味著,SD3在不同模態(tài)之間,會(huì)有更好的關(guān)系理解。

如今我們?cè)跇?gòu)建新方法時(shí),就可以在同一空間內(nèi)利用這些模態(tài),再結(jié)合上更好的文本理解和強(qiáng)大的VAE,SD3的前途簡(jiǎn)直不可限量!

圖片

CEO「跑路」,開(kāi)源成謎

趕在2月份的時(shí)候,Stable Diffusion迭代到了第3個(gè)版本。

然而僅一個(gè)月的時(shí)間,背后核心團(tuán)隊(duì)卻被曝出集體離職。

更讓人意想不到的是,身為CEO的Emad也緊跟辭職,退出了董事會(huì)。

圖片

顯然,SD3隨后的開(kāi)源,也變得迷霧重重。

當(dāng)時(shí),外界的猜測(cè)是,Stability AI的動(dòng)蕩是Emad一手釀成的。

圖片

彭博對(duì)20位現(xiàn)任前任員工、投資者等采訪了解到,Emad在治理公司方面缺乏經(jīng)驗(yàn),組織結(jié)構(gòu)混亂。

更有甚者,公司還習(xí)慣性地拖欠工資和稅款。

圖片

Emad近日又成立了一家初創(chuàng)公司Schelling AI,專注去中心化AI系統(tǒng)

其實(shí), 在23年底,公司內(nèi)部不穩(wěn)定的現(xiàn)象已經(jīng)出現(xiàn)了苗頭。

作為聯(lián)創(chuàng)之一的Cyrus Hodes便起訴Emad是個(gè)「騙子」。

他指控,在公司進(jìn)行重大融資幾個(gè)月前,Emad曾誘騙自己以100美元價(jià)格出售15%股份。

其實(shí),Stability AI創(chuàng)立之后,便以模型「開(kāi)源」深受社區(qū)關(guān)注和好評(píng)。

它先后發(fā)布了多款模型「全家桶」,包括語(yǔ)言模型Stable LM、視頻模型Stable Video Diffusiion、音頻模型Stable Audio。

而比起具有里程碑意義的Stable Diffusion,一代和二代模型系列在開(kāi)源社區(qū)有300-400萬(wàn)下載量。

圖片

在開(kāi)源背后,需要的是Stability AI不斷開(kāi)啟「燒錢(qián)」模式。

但顯然,這種入不敷出的方式,根本無(wú)法支撐這家公司持續(xù)性發(fā)展。

前段時(shí)間,Information爆料稱,Stability AI第一季度的營(yíng)收不足500萬(wàn)美元。而且,公司虧損超過(guò)了3000萬(wàn)美元,還對(duì)外拖欠了近1億美元的巨額賬單。

更有傳聞稱,Stability AI正尋求賣(mài)身。

圖片

而在SD3發(fā)布之后,官方宣布稱在對(duì)齊之后正式開(kāi)源,結(jié)果等了3個(gè)多月,依然只是API的開(kāi)放。

圖片

有Reddit網(wǎng)友在線發(fā)起了提問(wèn),為Stability AI尋求賺錢(qián)出路,以保證SD3能夠順利放出。

圖片

20億參數(shù)版本先上線

好在,ComputeX大會(huì)上,終于等到了SD3的官宣開(kāi)源。

一些網(wǎng)友紛紛收到了Stability AI郵件,即將開(kāi)源的SD3 Medium是一個(gè)20億參數(shù)的模型。

圖片

不過(guò),有人對(duì)此質(zhì)疑道,「Stability AI愚弄了所有的人,他們開(kāi)源的是一個(gè)名為『SD3 Medium』的模型,其實(shí)內(nèi)部還有Large和X-Large版本還未發(fā)布,這才是人們期待的真正的SD3」。

圖片

關(guān)于更大版本的開(kāi)源,Stability AI自家員工表示,40億、80億參數(shù)的版本未來(lái)都將會(huì)陸續(xù)上線。

圖片

Stable Diffusion 3技術(shù)回顧

SD3的誕生已經(jīng)在圖像質(zhì)量、多個(gè)對(duì)象、拼寫(xiě)能力方面,都得到了顯著提升,讓AI生圖再創(chuàng)新里程碑。

圖片

發(fā)布當(dāng)天,前CEO Emad承諾道,SD3未來(lái)將會(huì)開(kāi)源,目前還在測(cè)試階段。

圖片

甚至,它還涌現(xiàn)出了對(duì)物理世界的理解。

緊接著3月,Stability AI公布了新模型最詳實(shí)的技術(shù)報(bào)告。

論文中,首次介紹了Stable Diffusion 3背后核心技術(shù)——改進(jìn)版的Diffusion模型和一個(gè)基于DiT的文生圖全新架構(gòu)!

圖片

論文地址:https://stabilityai-public-packages.s3.us-west-2.amazonaws.com/Stable+Diffusion+3+Paper.pdf

與之前的版本對(duì)比,SD3明顯在圖像質(zhì)量生成上,實(shí)現(xiàn)了很大的改進(jìn),不僅支持多主題提示。

最重要的是,文字拼寫(xiě)的效果也變好了。

圖片

這一切竟是因?yàn)?,其背后框架的改進(jìn)和創(chuàng)新。

它用上了與Sora同樣的DiT架構(gòu),靈感來(lái)源于紐約大學(xué)助理教授謝賽寧的研究。

而在以前的Stable Diffusion版本中,并未采用Transformer技術(shù)。

圖片

在文生圖的任務(wù)中,SD3需要同時(shí)考慮文本+圖像兩種模態(tài)。

因此,研究者提出了一種全新的架構(gòu),稱為——MMDiT(多模態(tài)Diffusion Transformer),專為處理這種多模態(tài)的能力。

具體而言,模型采用了三種不同的文本嵌入模型——兩個(gè)CLIP模型和一個(gè)T5 ,來(lái)處理文本信息。

與此同時(shí),還采用了一個(gè)自編碼模型來(lái)編碼圖像token。

因?yàn)槲谋竞蛨D像嵌入在概念上有很大不同,下圖右中可以看出,研究者對(duì)兩種模態(tài)使用了兩種不同的權(quán)重。

圖片

基于這種獨(dú)特的架構(gòu),使得圖像和文本信息之間可以相互流動(dòng)和交互,從而在生成的結(jié)果中提高對(duì)內(nèi)容的整體理解和視覺(jué)表現(xiàn)。

而且,這種架構(gòu)未來(lái)還可以輕松擴(kuò)展到其他包括視頻在內(nèi)的多種模態(tài)。

實(shí)驗(yàn)評(píng)估中,SD3在人類偏好評(píng)估中超越了DALL-E 3和Midjourney v6,成為該領(lǐng)域的SOTA模型。

圖片

而且,SD3是一個(gè)模型系列,提供了8億到80億參數(shù)版本,意味著可以在終端設(shè)備可跑,大大降低了AI應(yīng)用的門(mén)檻。

網(wǎng)友們對(duì)此激動(dòng)不已,紛紛催更他們快速上線。

SD3開(kāi)源倒計(jì)時(shí)開(kāi)啟,接下來(lái)坐等上手了。

圖片

責(zé)任編輯:張燕妮 來(lái)源: 新智元
相關(guān)推薦

2024-03-06 13:58:00

測(cè)評(píng)模型

2023-05-26 15:53:48

MidjourneyAI圖像

2022-10-21 15:42:21

倒計(jì)時(shí)鴻蒙

2024-12-06 10:21:04

2011-04-11 09:17:28

Ubuntu倒計(jì)時(shí)

2017-07-20 16:21:52

UICountDownTidelay

2015-03-23 17:58:04

驗(yàn)證碼倒計(jì)時(shí)并行

2011-09-16 17:18:43

iPhone應(yīng)用TimeSpan

2014-03-21 13:46:45

2014-08-18 14:30:27

Android倒計(jì)時(shí)

2010-05-10 15:29:31

2024-04-09 13:21:00

AI開(kāi)源

2025-02-07 11:00:00

模型開(kāi)源AI

2024-06-13 17:45:16

2011-04-11 09:50:56

Ubuntu 11.0

2014-02-18 10:36:33

2013-04-09 10:01:18

微軟Windows XP

2013-10-10 09:23:15

Android 4.4Kitkat

2019-12-13 19:37:00

BashLinux命令
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)