最新亚洲人成无码网站,夜夜操夜夜操夜夜爽,中文字日产幕乱五区,在线成人看片黄a免费看,亚洲自偷自拍另类11p

首頁(yè) >> 今日更新 >

有望改寫(xiě)AI未來(lái)!NVIDIA全新nGPT使訓(xùn)練速度暴增20倍

2024-10-20 18:01:28 來(lái)源: 用戶(hù): 

相信很多大家對(duì)有望改寫(xiě)AI未來(lái)!NVIDIA全新nGPT使訓(xùn)練速度暴增20倍還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

10月20日消息,據(jù)媒體報(bào)道,NVIDIA的最新研究可能徹底改變AI的未來(lái),其研究團(tuán)隊(duì)提出了一種名為歸一化Transformer(nGPT)的新型神經(jīng)網(wǎng)絡(luò)架構(gòu)。

這一架構(gòu)在超球面(hypersphere)上進(jìn)行表示學(xué)習(xí),能夠顯著提升大型語(yǔ)言模型(LLM)的訓(xùn)練速度,最高可達(dá)20倍,同時(shí)保持了模型的精度。

nGPT架構(gòu)的核心在于將所有向量,包括嵌入、多層感知機(jī)(MLP)、注意力矩陣和隱藏狀態(tài),歸一化為單位范數(shù)。

這種歸一化處理使得輸入的token在超球面表面上移動(dòng),每一層模型都通過(guò)位移來(lái)貢獻(xiàn)最終的輸出預(yù)測(cè)。

實(shí)驗(yàn)結(jié)果表明,nGPT在訓(xùn)練時(shí)所需的步驟比標(biāo)準(zhǔn)Transformer模型減少了4到20倍,具體加速效果取決于序列長(zhǎng)度。

例如,在1k上下文中,訓(xùn)練速度提高了4倍;在4k上下文中,提高了10倍;而在8k上下文中,更是提高了20倍。

研究人員指出,nGPT的優(yōu)化路徑從超球面上的點(diǎn)開(kāi)始,通過(guò)位移來(lái)貢獻(xiàn)最終的輸出預(yù)測(cè),其中位移量由MLP和注意力模塊定義。

這種方法不僅提高了訓(xùn)練速度,還增強(qiáng)了模型的穩(wěn)定性。

以上就是關(guān)于【有望改寫(xiě)AI未來(lái)!NVIDIA全新nGPT使訓(xùn)練速度暴增20倍】的相關(guān)內(nèi)容,希望對(duì)大家有幫助!

  免責(zé)聲明:本文由用戶(hù)上傳,與本網(wǎng)站立場(chǎng)無(wú)關(guān)。財(cái)經(jīng)信息僅供讀者參考,并不構(gòu)成投資建議。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。 如有侵權(quán)請(qǐng)聯(lián)系刪除!

 
分享:
最新文章
站長(zhǎng)推薦