最新亚洲人成无码网站,夜夜操夜夜操夜夜爽,中文字日产幕乱五区,在线成人看片黄a免费看,亚洲自偷自拍另类11p

首頁 >> 今日更新 >

馬毅教授CRATE-α模型首次證實白盒Transformer可擴展性

2024-06-06 17:00:25 來源: 用戶: 

相信很多大家對馬毅教授CRATE-α模型首次證實白盒Transformer可擴展性還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

站長之家(ChinaZ.com)6月6日 消息:馬毅教授團隊最近取得了顯著的研究成果,他們開發(fā)的CRATE-α模型首次證實了白盒Transformer架構(gòu)的可擴展性。這一進展對于自然語言處理(NLP)、圖像處理和視覺計算領(lǐng)域的深度表征學(xué)習(xí)具有重要意義。

盡管Transformer架構(gòu)及其變體在AI領(lǐng)域取得了巨大成功,但它們大多基于經(jīng)驗設(shè)計,缺乏嚴(yán)格的數(shù)學(xué)解釋。CRATE模型通過數(shù)學(xué)推導(dǎo)得到每一層,提供了更好的可解釋性。不過,CRATE的應(yīng)用規(guī)模之前相對有限,與Vision Transformer的參數(shù)量相比有較大差距。

為了解決這一問題,研究團隊提出了CRATE-α,它對稀疏編碼塊進行了策略性但最小化的修改,并設(shè)計了輕量級的訓(xùn)練方法,有效提高了CRATE的可擴展性。實驗結(jié)果顯示,CRATE-α的性能隨著模型尺寸和訓(xùn)練數(shù)據(jù)集的增大而持續(xù)提升。在ImageNet分類任務(wù)上,CRATE-α-B和CRATE-α-L的準(zhǔn)確率顯著提高,同時保持了CRATE模型的可解釋性。

研究人員使用了ImageNet-21K和ImageNet-1K數(shù)據(jù)集進行訓(xùn)練和微調(diào),證明了CRATE-α在不同像素塊大小下的性能。此外,他們還采用了多模態(tài)數(shù)據(jù)集DataComp1B,包含14億圖文對,通過對比學(xué)習(xí)的方法訓(xùn)練CRATE-α,并使用優(yōu)化的CLIPA協(xié)議減少計算資源消耗。

CRATE-α模型的可擴展性通過在ImageNet-1K數(shù)據(jù)集上的零樣本學(xué)習(xí)評估得到了證明,這為衡量模型的泛化能力提供了重要指標(biāo)。研究人員還發(fā)現(xiàn)了節(jié)省計算資源的擴展策略,通過調(diào)整預(yù)訓(xùn)練階段的圖像token序列長度,在減少計算資源消耗的同時,保持了模型性能。

CRATE-α的語義可解釋性也得到了提升,使用MaskCut評估模型捕獲的豐富語義信息,CRATE-α在目標(biāo)檢測和分割方面比現(xiàn)有模型有所提高。這些研究成果不僅推動了Transformer模型的發(fā)展,也為未來的研究和應(yīng)用開辟了新的道路。

論文:https://arxiv.org/pdf/2405.20299

項目地址:https://rayjryang.github.io/CRATE-alpha/

以上就是關(guān)于【馬毅教授CRATE-α模型首次證實白盒Transformer可擴展性】的相關(guān)內(nèi)容,希望對大家有幫助!

  免責(zé)聲明:本文由用戶上傳,與本網(wǎng)站立場無關(guān)。財經(jīng)信息僅供讀者參考,并不構(gòu)成投資建議。投資者據(jù)此操作,風(fēng)險自擔(dān)。 如有侵權(quán)請聯(lián)系刪除!

 
分享:
最新文章