最新亚洲人成无码网站,夜夜操夜夜操夜夜爽,中文字日产幕乱五区,在线成人看片黄a免费看,亚洲自偷自拍另类11p

首頁 >> 今日更新 >

AI生圖格局大震!Stable Diffusion 3開源倒計時,2B單機可跑碾壓閉源Midjourney

2024-06-12 14:30:11 來源: 用戶: 

相信很多大家對AI生圖格局大震!Stable Diffusion 3開源倒計時,2B單機可跑碾壓閉源Midjourney還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

重磅消息!Stable Diffusion3,大概率會在明天開源。距離2月SD3的橫空出世,已經(jīng)過去了4個月。如果此事為真,生圖圈子第一個出現(xiàn)開源碾壓閉源的奇景!強大的MMDiT全新架構,將徹底改變AI生圖的格局?,F(xiàn)在,全體AI社區(qū)都在翹首以盼。

萬眾矚目的Stable Diffusion3,終于要正式開源了!

幾天前,在Computex2024大會上,Stability AI聯(lián)合首席執(zhí)行官Christian Laforte正式官宣:SD3Medium將在6月12日公開發(fā)布。

據(jù)悉,之后還會開源4B和8B的版本。

消息一出,網(wǎng)友們就激動地奔走相告。

種種跡象表明,SD3明天的開源應該是鐵板釘釘了。

目前,ComfyUI已經(jīng)提交了對SD3支持的版本。

網(wǎng)友表示,如果此事是真的,那可就太瘋狂了,生圖圈子將成第一個開源碾壓閉源的賽道!

這邊AI生圖王者Midjourney剛剛放出功能更新,網(wǎng)友們就在評論區(qū)紛紛留言:SD3一旦開源,你們就完蛋了。

網(wǎng)友們紛紛搬好板凳,坐等SD3的權重發(fā)布了。

欠債1億的獨角獸,仍堅持做開源英雄?

兩個月前,Stable Diffusion3一橫空出世,立刻在人類偏好評估中斬下DALL-E3和Midjourney v6,一舉成為該領域的SOTA。

因為攻克了AI圖像生成領域著名的「正確性」測試,SD3一時名聲大噪,引發(fā)了極大熱度。

雖然放出的模型效果驚艷全網(wǎng),但選擇開源也讓公司的收入入不敷出。隨后就是滿身黑歷史的CEO跑路、人才出走等負面事件,讓Stability AI這頭獨角獸的前途風雨飄搖,一度陷入欠下1億美元的「賣身」傳聞。

在鼎盛時期的Stability AI收到過不少橄欖枝,卻斷然拒絕收購。然而虧損超3000萬美元、拖欠1億美元賬單的事實,揭示了所有開源公司共同的困境——

如果選擇將代碼、權重和產(chǎn)品API免費開放,即便保留部分高級功能,也很難吸引到付費用戶。

如果在這種情況下,SD3依然堅持開源,叫Stability AI一聲「開源英雄」絕不為過。

強大的架構、更好的明暗對比度、提示遵循、訓練結果、模型合并、圖像分辨率……SD3的開源給我們帶來的貢獻可太多了!

現(xiàn)在,所有人都在翹首以盼。

將對開源社區(qū)影響重大

Stable Diffusion3的開源,為何意義如此重大?

在reddit的StableDiffusion社區(qū),一位網(wǎng)友給出了以下總結,讓我們從非技術視角,理解SD3的重要性,以及對AI社區(qū)的重大影響。

作者表示,自己希望能讓外行人都明白,為何Stable Diffusion3如此重要。

曾經(jīng)Stable Diffusion的開源,就改變了游戲規(guī)則

VAE是無名英雄

VAE(變分自編碼器)非常特別,因為它讓提供了16個通道的特征和顏色數(shù)據(jù)供我們使用,而之前的模型只有4個通道。

下面的四張圖顯示出,這將產(chǎn)生多大的影響。

Emu論文地址:https://arxiv.org/pdf/2309.15807

這也就意味著,模型在訓練時會捕獲更多細節(jié)。

不僅模型的質量會更好,而且實際上會帶來更快的訓練速度,從而使主要的MMDiT模型(也就是實現(xiàn)生成的主要模型)能夠更好地捕捉細節(jié)。

感興趣的讀者可以閱讀下面這篇技術性解讀:

文章地址:https://huggingface.co/blog/TimothyAlexisVass/explaining-the-sdxl-latent-space#the-8-bit-pixel-space-has-3-channels

與舊的模型相比,新的16通道VAE在512x512分辨率下的表現(xiàn),可以說令人難以置信——即使在較小的圖像尺寸下,通道維度上的特征數(shù)量也足以捕捉到很好的細節(jié)。

為了更好地說明這一點,我們可以用視頻領域的標準來做個類比——

VHS和DVD都是標準定義的480i/480p,但DVD顯然捕捉到了更多細節(jié),甚至在硬件和軟件的升頻器上表現(xiàn)也很好。

或者,可以用復古游戲玩家的說法來類比——

- 復合視頻線(Composite cables) -> SD1.X的VAE

- S-Video線 -> SDXL的VAE

- 組件視頻線(Component cables) -> SD3的VAE

因此,將VAE應用到如今我們的AI工作流程中,一切都將變得更加高效。

在視頻生成方面,則可以在低分辨率下訓練以適應虛擬內(nèi)存(VRAM),然后通過分辨率增強流程來保留細節(jié)。

我們不需要訓練/微調文本編碼器了

眾所周知,訓練文本編碼器可以提升基于SD1.X模型和SDXL模型的性能。

然而在這位網(wǎng)友看來,從長遠來看,這其實是低效的,因為在實際應用中存在大量的微調和模型合并。

這會在推理過程中導致大量的重新加權,從而引起混亂,使得在創(chuàng)作過程中捕捉細節(jié)變得更加困難。

雖然在小規(guī)模應用中可以這樣做,但隨著社區(qū)的擴大,訓練文本編碼器就變得極其繁瑣了。

從技術角度來看,CLIP模型本身就很難訓練和微調,因此如果嘗試同時處理三個模型,可能會面臨一場艱難的苦斗。

而現(xiàn)在,我們或許根本不需要微調文本編碼器了!

第一個原因是,VAE相比舊模型,捕捉了更多的細節(jié)。

第二個原因則是,無論我們使用哪種變體,SD3都經(jīng)過了適當且魯棒的caption訓練,以捕捉大多數(shù)人認為重要的所有細節(jié)。

在SD3中,可以讓新的架構和VAE為我們捕捉這些細節(jié),這樣我們就可以更好地利用多個LoRA模型,實現(xiàn)更魯棒的生成。

加速新的AI研究

目前,生成式AI社區(qū)和LLM社區(qū)之間還缺乏一定的協(xié)作。

在這位網(wǎng)友看來,隨著MMDiT架構更好地與LLM社區(qū)對齊,會有更多的開發(fā)者進入生成式AI社區(qū),帶來大量豐富的研究和方法。

這將造成的影響,或許是十分重大的。

此前,LLM社區(qū)就創(chuàng)建了很多應用于生成式AI的偉大方法(比如LoRA就是從文本建模中派生出來的),然而,由于架構之間缺乏互操作性操作性(當前SD使用的是UNet,SD3使用的是Transformer塊),會讓許多人望而卻步。

如果兩個領域的開發(fā)者和研究者開始合作,擴展許多跨領域的多模態(tài)功能,比如文本、圖像、音頻、視頻等,比如會創(chuàng)造出許多獨屬于開源社區(qū)的非常棒的體驗。

舊方法更加完善

自從Stable Diffusion誕生以來,我們可以在眨眼間生成圖像、視頻、音頻,甚至3D模型。

如今在谷歌Scholar上,關于Stable Diffusion的論文已經(jīng)有7500多篇了。

微調方法、ControlNet、適配器、分段方法等理論,在SD上應該會比從前的架構表現(xiàn)得更好。

而且因為架構簡單,模型會變得更易訪問和使用。

事實上,由于SD3的強大圖像-文本對齊和VAE,有些方法可能我們再也不需要了。

比如在音頻擴散、視頻擴散和3D擴散模型領域,就可以在新架構上用這些方法訓練,進一步提高模型的質量和魯棒性。

顯然,ControlNets和適配器會變得更好,因為SD3實際上是使用多模態(tài)架構構建的。

這也就意味著,SD3在不同模態(tài)之間,會有更好的關系理解。

如今我們在構建新方法時,就可以在同一空間內(nèi)利用這些模態(tài),再結合上更好的文本理解和強大的VAE,SD3的前途簡直不可限量!

CEO「跑路」,開源成謎

趕在2月份的時候,Stable Diffusion迭代到了第3個版本。

然而僅一個月的時間,背后核心團隊卻被曝出集體離職。

更讓人意想不到的是,身為CEO的Emad也緊跟辭職,退出了董事會。

顯然,SD3隨后的開源,也變得迷霧重重。

當時,外界的猜測是,Stability AI的動蕩是Emad一手釀成的。

彭博對20位現(xiàn)任前任員工、投資者等采訪了解到,Emad在治理公司方面缺乏經(jīng)驗,組織結構混亂。

更有甚者,公司還習慣性地拖欠工資和稅款。

Emad近日又成立了一家初創(chuàng)公司Schelling AI,專注去中心化AI系統(tǒng)

其實, 在23年底,公司內(nèi)部不穩(wěn)定的現(xiàn)象已經(jīng)出現(xiàn)了苗頭。

作為聯(lián)創(chuàng)之一的Cyrus Hodes便起訴Emad是個「騙子」。

他指控,在公司進行重大融資幾個月前,Emad曾誘騙自己以100美元價格出售15%股份。

其實,Stability AI創(chuàng)立之后,便以模型「開源」深受社區(qū)關注和好評。

它先后發(fā)布了多款模型「全家桶」,包括語言模型Stable LM、視頻模型Stable Video Diffusiion、音頻模型Stable Audio。

而比起具有里程碑意義的Stable Diffusion,一代和二代模型系列在開源社區(qū)有300-400萬下載量。

在開源背后,需要的是Stability AI不斷開啟「燒錢」模式。

但顯然,這種入不敷出的方式,根本無法支撐這家公司持續(xù)性發(fā)展。

前段時間,Information爆料稱,Stability AI第一季度的營收不足500萬美元。而且,公司虧損超過了3000萬美元,還對外拖欠了近1億美元的巨額賬單。

更有傳聞稱,Stability AI正尋求賣身。

而在SD3發(fā)布之后,官方宣布稱在對齊之后正式開源,結果等了3個多月,依然只是API的開放。

有Reddit網(wǎng)友在線發(fā)起了提問,為Stability AI尋求賺錢出路,以保證SD3能夠順利放出。

20億參數(shù)版本先上線

好在,ComputeX大會上,終于等到了SD3的官宣開源。

一些網(wǎng)友紛紛收到了Stability AI郵件,即將開源的SD3Medium是一個20億參數(shù)的模型。

不過,有人對此質疑道,「Stability AI愚弄了所有的人,他們開源的是一個名為『SD3Medium』的模型,其實內(nèi)部還有Large和X-Large版本還未發(fā)布,這才是人們期待的真正的SD3」。

關于更大版本的開源,Stability AI自家員工表示,40億、80億參數(shù)的版本未來都將會陸續(xù)上線。

Stable Diffusion3技術回顧

SD3的誕生已經(jīng)在圖像質量、多個對象、拼寫能力方面,都得到了顯著提升,讓AI生圖再創(chuàng)新里程碑。

發(fā)布當天,前CEO Emad承諾道,SD3未來將會開源,目前還在測試階段。

甚至,它還涌現(xiàn)出了對物理世界的理解。

緊接著3月,Stability AI公布了新模型最詳實的技術報告。

論文中,首次介紹了Stable Diffusion3背后核心技術——改進版的Diffusion模型和一個基于DiT的文生圖全新架構!

論文地址:https://stabilityai-public-packages.s3.us-west-2.amazonaws.com/Stable+Diffusion+3+Paper.pdf

與之前的版本對比,SD3明顯在圖像質量生成上,實現(xiàn)了很大的改進,不僅支持多主題提示。

最重要的是,文字拼寫的效果也變好了。

這一切竟是因為,其背后框架的改進和創(chuàng)新。

它用上了與Sora同樣的DiT架構,靈感來源于紐約大學助理教授謝賽寧的研究。

而在以前的Stable Diffusion版本中,并未采用Transformer技術。

在文生圖的任務中,SD3需要同時考慮文本+圖像兩種模態(tài)。

因此,研究者提出了一種全新的架構,稱為——MMDiT(多模態(tài)Diffusion Transformer),專為處理這種多模態(tài)的能力。

具體而言,模型采用了三種不同的文本嵌入模型——兩個CLIP模型和一個T5,來處理文本信息。

與此同時,還采用了一個自編碼模型來編碼圖像token。

因為文本和圖像嵌入在概念上有很大不同,下圖右中可以看出,研究者對兩種模態(tài)使用了兩種不同的權重。

基于這種獨特的架構,使得圖像和文本信息之間可以相互流動和交互,從而在生成的結果中提高對內(nèi)容的整體理解和視覺表現(xiàn)。

而且,這種架構未來還可以輕松擴展到其他包括視頻在內(nèi)的多種模態(tài)。

實驗評估中,SD3在人類偏好評估中超越了DALL-E3和Midjourney v6,成為該領域的SOTA模型。

而且,SD3是一個模型系列,提供了8億到80億參數(shù)版本,意味著可以在終端設備可跑,大大降低了AI應用的門檻。

網(wǎng)友們對此激動不已,紛紛催更他們快速上線。

SD3開源倒計時開啟,接下來坐等上手了。

參考資料:

https://x.com/op7418/status/1800455685068771643

https://x.com/StabilityAI/status/1797462536117444794

https://www.reddit.com/r/StableDiffusion/comments/1d6t0gc/sd3_release_on_june_12/

https://www.reddit.com/r/StableDiffusion/comments/1dcuval/comment/l80v9an/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1&utm_content=share_button

以上就是關于【AI生圖格局大震!Stable Diffusion 3開源倒計時,2B單機可跑碾壓閉源Midjourney】的相關內(nèi)容,希望對大家有幫助!

  免責聲明:本文由用戶上傳,與本網(wǎng)站立場無關。財經(jīng)信息僅供讀者參考,并不構成投資建議。投資者據(jù)此操作,風險自擔。 如有侵權請聯(lián)系刪除!

 
分享:
最新文章