最新亚洲人成无码网站,夜夜操夜夜操夜夜爽,中文字日产幕乱五区,在线成人看片黄a免费看,亚洲自偷自拍另类11p

首頁 >> 今日更新 >

AI 框架Ambient Diffusion:從圖像中獲取靈感,而非復(fù)制

2024-05-21 15:03:59 來源: 用戶: 

相信很多大家對AI 框架Ambient Diffusion:從圖像中獲取靈感,而非復(fù)制還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

站長之家(ChinaZ.com)5月21日 消息:強大的人工智能模型有時會出現(xiàn)錯誤,包括虛構(gòu)錯誤信息或?qū)⑺俗髌纷鳛樽约旱?。為了解決后者的問題,德克薩斯大學(xué)奧斯汀分校的研究團隊開發(fā)了一種名為 "Ambient Diffusion" 的框架。該框架通過對無法辨認的圖像數(shù)據(jù)進行訓(xùn)練,繞過了 AI 模型復(fù)制他人作品的問題。

DALL-E、Midjourney 和 Stable Diffusion 是文本到圖像擴散生成的人工智能模型,它們能夠?qū)⑷我庥脩粑谋巨D(zhuǎn)化為高度逼真的圖像。這三個模型都面臨著藝術(shù)家提起訴訟的問題,他們聲稱生成的樣本復(fù)制他們的作品。這些模型是通過訓(xùn)練數(shù)十億個圖像 - 文本對來實現(xiàn)的,這些對外不公開,它們能夠生成高質(zhì)量的圖像,但可能會使用版權(quán)圖像并復(fù)制它們。

"Ambient Diffusion" 框架的提出解決了這個問題,通過僅通過擾亂后的圖像數(shù)據(jù)對擴散模型進行訓(xùn)練。初步實驗表明,該框架仍然能夠生成高質(zhì)量的樣本,而不需要看到任何可識別為原始源圖像的內(nèi)容。研究團隊首先在一組3000張名人圖片上訓(xùn)練了一個擴散模型,然后使用該模型生成了新的樣本。

在實驗中,用清晰的數(shù)據(jù)訓(xùn)練的擴散模型明顯復(fù)制了訓(xùn)練樣本。但當(dāng)研究人員對訓(xùn)練數(shù)據(jù)進行擾亂,隨機遮擋圖像中的個別像素,然后用新的方法對模型進行重新訓(xùn)練時,生成的樣本保持了高質(zhì)量,但看起來完全不同。該模型仍然可以生成人臉,但生成的人臉與訓(xùn)練圖像有明顯的區(qū)別。

研究人員表示,這指向了一個解決方案,盡管可能會改變性能,但永遠不會輸出噪聲。這一框架為學(xué)術(shù)研究人員如何推進人工智能以滿足社會需求提供了一個示例。德克薩斯大學(xué)奧斯汀分校已將2024年宣布為 "AI 之年",這是今年的一個關(guān)鍵主題。該研究團隊還包括加州大學(xué)伯克利分校和麻省理工學(xué)院的成員。

論文:https://arxiv.org/abs/2305.19256

關(guān)聯(lián)項目:https://github.com/giannisdaras/ambient-tweedie?tab=readme-ov-file

以上就是關(guān)于【AI 框架Ambient Diffusion:從圖像中獲取靈感,而非復(fù)制】的相關(guān)內(nèi)容,希望對大家有幫助!

  免責(zé)聲明:本文由用戶上傳,與本網(wǎng)站立場無關(guān)。財經(jīng)信息僅供讀者參考,并不構(gòu)成投資建議。投資者據(jù)此操作,風(fēng)險自擔(dān)。 如有侵權(quán)請聯(lián)系刪除!

 
分享:
最新文章