最新亚洲人成无码网站,夜夜操夜夜操夜夜爽,中文字日产幕乱五区,在线成人看片黄a免费看,亚洲自偷自拍另类11p

首頁 >> 今日更新 >

AMD發(fā)布首個AI小語言模型:6900億token、推測解碼提速3.88倍

2024-10-01 20:30:55 來源: 用戶: 

相信很多大家對AMD發(fā)布首個AI小語言模型:6900億token、推測解碼提速3.88倍還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

10月1日消息,AMD發(fā)布了自己的首個小語言模型(SLM),名為AMD-135M”。

相比于越來越龐大的大語言模型(LLM),它體積小巧,更加靈活,更有針對性,非常適合私密性、專業(yè)性很強的企業(yè)部署。

AMD-135小模型隸屬于Llama家族,有兩個版本:

一是基礎型AMD-Llama-135M”,擁有多達6700億個token,在八塊Instinct MIM250 64GB加速器上訓練了六天。

二是延伸型AMD-Llama-135M-code”,額外增加了專門針對編程的200億個token,同樣硬件訓練了四天。

創(chuàng)建與部署流程

它使用了一種名為推測解碼”(speculative decoding)的方法,通過較小的草稿模型,在單次前向傳播中生成多個候選token,然后發(fā)送給更大的、更精確的目標模型,進行驗證或糾正。

這種方法可以同時生成多個token,不會影響性能,還可以降低內存占用,但因為數據交易更多,功耗也會增加。

AMD還使用AMD-Llama-135M-code作為CodeLlama-7b的草案模型,測試了推測解碼使用與否的性能。

比如在MI250加速器上,性能可提升最多約2.8倍,銳龍AI CPU上可提升最多約3.88倍,銳龍AI NPU上可提升最多約2.98倍。

推測解碼

AMD-135M小模型的訓練代碼、數據集等資源都已經開源,遵循Apache 2.0。

按照AMD的說法,它的性能與其他開源小模型基本相當或略有領先,比如Hellaswag、SciQ、ARC-Easy等任務超過Llama-68M、LLama-160M,Hellaswag、WinoGrande、SciQ、MMLU、ARC-Easy等任務則基本類似GTP2-124MN、OPT-125M。

以上就是關于【AMD發(fā)布首個AI小語言模型:6900億token、推測解碼提速3.88倍】的相關內容,希望對大家有幫助!

  免責聲明:本文由用戶上傳,與本網站立場無關。財經信息僅供讀者參考,并不構成投資建議。投資者據此操作,風險自擔。 如有侵權請聯系刪除!

 
分享:
最新文章