next-token被淘汰!Meta實(shí)測(cè)「多token」訓(xùn)練方法,推理提速3倍,性能大漲10%+
相信很多大家對(duì)next-token被淘汰!Meta實(shí)測(cè)「多token」訓(xùn)練方法,推理提速3倍,性能大漲10%+還不知道吧,今天菲菲就帶你們一起去了解一下~.~!
【新智元導(dǎo)讀】研究人員提出了一種新的大型語(yǔ)言模型訓(xùn)練方法,通過(guò)一次性預(yù)測(cè)多個(gè)未來(lái)tokens來(lái)提高樣本效率和模型性能,在代碼和自然語(yǔ)言生成任務(wù)上均表現(xiàn)出顯著優(yōu)勢(shì),且不會(huì)增加訓(xùn)練時(shí)間,推理速度還能提升至三倍。
當(dāng)前,大型語(yǔ)言模型,例如GPT和Llama,主要是根據(jù)「前文的單詞序列」對(duì)「下一個(gè)token」進(jìn)行預(yù)測(cè)的方式來(lái)訓(xùn)練。
但你有沒(méi)有想過(guò)一個(gè)問(wèn)題,為什么不對(duì)后文的tokens同時(shí)進(jìn)行預(yù)測(cè)呢?
最近,Meta、巴黎高科路橋大學(xué)、巴黎薩克雷大學(xué)的研究人員就聯(lián)合提出了一種新的訓(xùn)練方法,即一次性預(yù)測(cè)多個(gè)未來(lái)tokens,可以提高模型的樣本效率。
論文鏈接:https://arxiv.org/pdf/2404.19737
具體來(lái)說(shuō),在訓(xùn)練語(yǔ)料庫(kù)的每一個(gè)位置,要求模型使用n個(gè)獨(dú)立的輸出頭網(wǎng)絡(luò)來(lái)預(yù)測(cè)緊隨其后的n個(gè)token,其中所有輸出頭都基于同一個(gè)模型主干。
研究人員將多token預(yù)測(cè)視作是一種輔助訓(xùn)練任務(wù),實(shí)驗(yàn)發(fā)現(xiàn)該方法不僅能夠提升模型在各種下游任務(wù)上的表現(xiàn),而且不會(huì)增加訓(xùn)練時(shí)間,對(duì)代碼生成和自然語(yǔ)言生成任務(wù)都是有益的。
隨著模型尺寸的增大,該方法的優(yōu)勢(shì)變得更加明顯,尤其是在進(jìn)行多epochs訓(xùn)練時(shí)。
在編程等生成性任務(wù)的基準(zhǔn)測(cè)試中,使用多token預(yù)測(cè)訓(xùn)練的模型的性能提升尤為顯著,能夠穩(wěn)定地超過(guò)傳統(tǒng)單token預(yù)測(cè)模型。
例如,13B參數(shù)的模型在HumanEval基準(zhǔn)測(cè)試中解決問(wèn)題的能力比同等規(guī)模的單token模型高出12%,在MBPP基準(zhǔn)測(cè)試中高出17%
此外,通過(guò)在小型算法任務(wù)上的實(shí)驗(yàn),研究人員發(fā)現(xiàn)多token預(yù)測(cè)對(duì)于提升模型的歸納頭(induction heads)和算法推理能力是有益的。
而且,使用多token預(yù)測(cè)訓(xùn)練的模型在推理時(shí)速度更快,最高可達(dá)三倍,即便是在處理大規(guī)模數(shù)據(jù)批次時(shí)也是如此。
多token預(yù)測(cè)
標(biāo)準(zhǔn)語(yǔ)言模型通過(guò)執(zhí)行一個(gè)「下一個(gè)token預(yù)測(cè)」任務(wù)來(lái)對(duì)大型文本語(yǔ)料庫(kù)進(jìn)行學(xué)習(xí),任務(wù)目標(biāo)是最小化交叉熵?fù)p失,其中模型需要最大化「在給定之前token序列歷史的條件下,預(yù)測(cè)下一個(gè)token」的概率。
研究人員將「單token預(yù)測(cè)」任務(wù)泛化為「多token預(yù)測(cè)」,在訓(xùn)練預(yù)料上的每個(gè)位置,模型需要一次性預(yù)測(cè)未來(lái)n個(gè)tokens,交叉熵?fù)p失改寫(xiě)為:
為了使問(wèn)題可解,假設(shè)大型語(yǔ)言模型使用一個(gè)共享的主干網(wǎng)絡(luò)來(lái)生成觀察到的上下文的潛表征z,然后再把該表征送入到n個(gè)獨(dú)立的頭網(wǎng)絡(luò),以并行的方式預(yù)測(cè)每一個(gè)未來(lái)token
多token預(yù)測(cè)的交叉熵?fù)p失可以分解為兩部分:在給定token序列下的潛表征,以及在該潛表征條件下,預(yù)測(cè)n個(gè)未來(lái)token
在實(shí)踐中,該架構(gòu)包括一個(gè)共享Transformer主干模型,根據(jù)上下文詞序列來(lái)生成潛表征,n個(gè)獨(dú)立的、基于Transformer層的輸出頭,以及一個(gè)共享的unembedding矩陣。
節(jié)省內(nèi)存
在訓(xùn)練多token預(yù)測(cè)器時(shí),一個(gè)關(guān)鍵問(wèn)題是GPU顯存占用過(guò)多。
在當(dāng)前的大型語(yǔ)言模型(LLMs)中,詞匯表的大小V通常遠(yuǎn)遠(yuǎn)大于潛在表示的維度d,因此logit vectors就成了GPU內(nèi)存使用的瓶頸。
如果簡(jiǎn)單地實(shí)現(xiàn)多token預(yù)測(cè)器,將所有的logit vectors及其梯度都存儲(chǔ)在內(nèi)存中,會(huì)導(dǎo)致內(nèi)存使用量迅速增加,因?yàn)槊總€(gè)向量的形狀都是 (n, V),這種方式會(huì)極大地限制模型可同時(shí)處理的批次大小,并增加GPU顯存的平均使用量。
研究人員提出了一種內(nèi)存高效的實(shí)現(xiàn)方法,通過(guò)調(diào)整前向傳播和反向傳播操作的順序來(lái)減少內(nèi)存使用。
具體來(lái)說(shuō),在通過(guò)共享主干網(wǎng)絡(luò)fs 完成前向傳播后,模型會(huì)按順序?qū)γ總€(gè)獨(dú)立的輸出頭部fi 執(zhí)行前向和反向傳播,并在主干網(wǎng)絡(luò)處累積梯度,每個(gè)輸出頭部fi的logit向量和梯度在計(jì)算后就會(huì)被釋放,無(wú)需一直占用內(nèi)存,直到所有頭部的計(jì)算完成。
這意味著,除了主干網(wǎng)絡(luò)的梯度外,不需要長(zhǎng)期存儲(chǔ)其他任何梯度,從而顯著降低了GPU內(nèi)存的使用。
通過(guò)這種方式,模型的內(nèi)存復(fù)雜度從O(nV+d)降低到了O(V+d),在不犧牲運(yùn)行時(shí)間的情況下,顯著減少了GPU的峰值內(nèi)存使用。
推理階段Inference
在推理時(shí),該模型的最基礎(chǔ)用法是使用「下一個(gè)token預(yù)測(cè)頭」(next-token prediction head)進(jìn)行「基本next-token自回歸預(yù)測(cè)」,同時(shí)丟棄所有其他頭網(wǎng)絡(luò)。
也可以利用額外的輸出頭網(wǎng)絡(luò)進(jìn)行自推理解碼,對(duì)從下一個(gè)token預(yù)測(cè)頭網(wǎng)絡(luò)的解碼進(jìn)行加速:
1. 區(qū)塊并行解碼(blockwise parallel decoding),一種推理解碼的變體方法,可以并行地預(yù)測(cè)多個(gè)token,而不需要額外的草稿模型;
2. 使用類(lèi)似美杜莎(Medusa)樹(shù)注意力機(jī)制的推測(cè)解碼,可以提高解碼速度和效率。
實(shí)驗(yàn)結(jié)果
研究人員總共進(jìn)行了七個(gè)大規(guī)模實(shí)驗(yàn)來(lái)證明多token預(yù)測(cè)損失的有效性。
為了公平對(duì)比next-token預(yù)測(cè)器和n-token預(yù)測(cè)器,實(shí)驗(yàn)中的模型參數(shù)量均相同,也就是說(shuō),在預(yù)測(cè)未來(lái)頭網(wǎng)絡(luò)中添加n-1層時(shí),同時(shí)也會(huì)從共享模型主干中移除n-1層。
1. 性能隨模型尺寸增大而提升
為了研究模型尺寸的影響,研究人員從零開(kāi)始訓(xùn)練了「六個(gè)」模型,尺寸范圍覆蓋了從300M到13B參數(shù)量,至少使用了91B tokens的代碼。
從評(píng)估結(jié)果中可以看到,在MBPP和HumanEval上的實(shí)驗(yàn)表明,在相同的計(jì)算量下,使用多token預(yù)測(cè),可以在固定數(shù)據(jù)集上獲得更好的性能。
研究人員認(rèn)為,該特性只有在大規(guī)模數(shù)據(jù)、大尺寸模型上才能體現(xiàn)出來(lái),這也可能是多token預(yù)測(cè)一直沒(méi)有在大型語(yǔ)言模型訓(xùn)練上廣泛應(yīng)用的原因。
2. 更快的推理速度
研究人員使用異構(gòu)批量大小的xFormers實(shí)現(xiàn)貪婪自我推測(cè)解碼(self-speculative decoding),并測(cè)量了最佳的4-tokens預(yù)測(cè)模型(7B參數(shù))在補(bǔ)全代碼和自然語(yǔ)言數(shù)據(jù)時(shí)的解碼速度。
可以看到,該方法在代碼生成任務(wù)上速度提升了3.0倍,文本生成的速度提升了2.7倍,在8字節(jié)預(yù)測(cè)模型上,推理速度提升了6.4倍。
使用多token預(yù)測(cè)進(jìn)行預(yù)訓(xùn)練時(shí),額外的頭網(wǎng)絡(luò)可以比單個(gè)next-token預(yù)測(cè)模型的微調(diào)更準(zhǔn)確,從而讓模型充分發(fā)揮自推測(cè)解碼的全部潛力。
3. 用多字節(jié)預(yù)測(cè)來(lái)學(xué)習(xí)全局pattern
為了展示next-token預(yù)測(cè)任務(wù)能夠捕捉到局部模式,研究人員采取了極端情況,即字節(jié)級(jí)分詞(byte-level tokenization),通過(guò)訓(xùn)練一個(gè)7B參數(shù)的字節(jié)級(jí)Transformer模型來(lái)處理314B個(gè)byte,大約相當(dāng)于116B個(gè)tokens
8-byte預(yù)測(cè)模型與next-byte預(yù)測(cè)相比取得了顯著的性能提升,在MBPP pass@1上解決了超過(guò)67%的問(wèn)題,在HumanEval pass@1上解決了20%的問(wèn)題。
因此,多字節(jié)預(yù)測(cè)是一個(gè)非常有前景的方法,可以讓字節(jié)級(jí)模型的訓(xùn)練更高效。
自推測(cè)解碼可以實(shí)現(xiàn)8字節(jié)預(yù)測(cè)模型的6倍速度提升,完全彌補(bǔ)了在推理時(shí)「更長(zhǎng)字節(jié)序列」的成本,甚至比next-token預(yù)測(cè)模型快近兩倍。
盡管訓(xùn)練所用的數(shù)據(jù)量少了1.7倍,但8字節(jié)預(yù)測(cè)模型的性能仍然能接近基于token的模型。
4. 尋找最優(yōu)的n值
為了更好地理解預(yù)測(cè)token數(shù)量的影響,研究人員在7B尺寸的模型(訓(xùn)練數(shù)據(jù)包含了200B個(gè)代碼token)上進(jìn)行了全面的消融實(shí)驗(yàn),在不同實(shí)驗(yàn)設(shè)置中嘗試了 n =1,2,4,6和8
實(shí)驗(yàn)結(jié)果顯示,使用4個(gè)未來(lái)token進(jìn)行訓(xùn)練時(shí),在HumanEval和MBPP的所有pass at1,10和100指標(biāo)上均超越了其他對(duì)比模型:MBPP的改進(jìn)分別為+3.8%, +2.1%和+3.2%,HumanEval的改進(jìn)分別為+1.2%, +3.7%和+4.1%
有趣的是,在APPS/Intro上,n =6時(shí)的性能提升分別為+0.7%, +3.0%和+5.3%
最佳的窗口尺寸很可能取決于輸入數(shù)據(jù)的分布。至于字節(jié)級(jí)模型,最佳窗口大小在基準(zhǔn)測(cè)試中更為一致(8字節(jié))。
5. 多epochs訓(xùn)練
在進(jìn)行機(jī)器學(xué)習(xí)模型訓(xùn)練時(shí),多tokens訓(xùn)練方法在處理相同數(shù)據(jù)集的多個(gè)訓(xùn)練周期時(shí),對(duì)于預(yù)測(cè)下一個(gè)token的任務(wù)仍然顯示出了優(yōu)勢(shì)。
雖然隨著訓(xùn)練周期的增加,優(yōu)勢(shì)略有下降,但在MBPP數(shù)據(jù)集上的pass@1指標(biāo)上,仍然觀察到了2.4%的提升;在HumanEval數(shù)據(jù)集上的pass@100指標(biāo)上,提升更是達(dá)到了3.2%
結(jié)果表明,即使在多次訓(xùn)練后,多tokens訓(xùn)練方法仍然能夠帶來(lái)一定的性能提升。
但對(duì)于APPS/Intro數(shù)據(jù)集來(lái)說(shuō),當(dāng)訓(xùn)練token數(shù)量達(dá)到200B時(shí),使用窗口大小為4的訓(xùn)練方法已經(jīng)不再是最優(yōu)的選擇,可能需要調(diào)整窗口大小或采用其他策略來(lái)進(jìn)一步提高模型性能。
6. 微調(diào)多token預(yù)測(cè)器
在機(jī)器學(xué)習(xí)領(lǐng)域,預(yù)訓(xùn)練模型通過(guò)多token預(yù)測(cè)損失函數(shù)進(jìn)行訓(xùn)練,相較于傳統(tǒng)的單token預(yù)測(cè)模型,該方法在后續(xù)的微調(diào)階段展現(xiàn)出了更好的性能。
研究人員在CodeContests數(shù)據(jù)集上對(duì)具有7B參數(shù)的模型進(jìn)行了微調(diào)測(cè)試,將一個(gè)能夠預(yù)測(cè)接下來(lái)4個(gè)token的模型與基礎(chǔ)的單token預(yù)測(cè)模型進(jìn)行了比較,并嘗試了一種將4tokens預(yù)測(cè)模型去除額外預(yù)測(cè)頭后,按照傳統(tǒng)的單token預(yù)測(cè)目標(biāo)進(jìn)行微調(diào)的設(shè)置。
實(shí)驗(yàn)結(jié)果顯示,在pass@k指標(biāo)上,無(wú)論采用哪種微調(diào)方式,4-tokens預(yù)測(cè)模型的表現(xiàn)都超過(guò)了單token預(yù)測(cè)模型,也表明4-tokens預(yù)測(cè)模型在理解任務(wù)、解決問(wèn)題以及產(chǎn)生多樣化答案的能力上更為出色。
實(shí)驗(yàn)結(jié)果還表明,在4-tokens預(yù)測(cè)預(yù)訓(xùn)練的基礎(chǔ)上進(jìn)行單token預(yù)測(cè)微調(diào),可能是一個(gè)綜合性能最佳的策略,與先使用輔助任務(wù)進(jìn)行預(yù)訓(xùn)練,然后進(jìn)行特定任務(wù)微調(diào)的經(jīng)典機(jī)器學(xué)習(xí)范式相吻合。
7. 在自然語(yǔ)言上的多token預(yù)測(cè)
研究人員訓(xùn)練了參數(shù)量為7B的模型,并使用了三種不同的預(yù)測(cè)損失方法:預(yù)測(cè)4token、2-token以及單個(gè)token,并在6個(gè)標(biāo)準(zhǔn)的自然語(yǔ)言處理(NLP)基準(zhǔn)測(cè)試中進(jìn)行了性能評(píng)估。
在摘要任務(wù)中,使用了8個(gè)不同的基準(zhǔn)測(cè)試,并通過(guò)ROUGE指標(biāo)來(lái)自動(dòng)評(píng)估生成文本的質(zhì)量,結(jié)果顯示,2-token和4-token的性能都比單token預(yù)測(cè)基線的表現(xiàn)更好。
參考資料:
https://go.fb.me/wty7gj
以上就是關(guān)于【next-token被淘汰!Meta實(shí)測(cè)「多token」訓(xùn)練方法,推理提速3倍,性能大漲10%+】的相關(guān)內(nèi)容,希望對(duì)大家有幫助!
免責(zé)聲明:本文由用戶上傳,與本網(wǎng)站立場(chǎng)無(wú)關(guān)。財(cái)經(jīng)信息僅供讀者參考,并不構(gòu)成投資建議。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。 如有侵權(quán)請(qǐng)聯(lián)系刪除!
- 董明珠曾喊話雷軍給股民分多少錢(qián)!格力:擬分紅超55億
- Epic喜+1:動(dòng)作游戲《師父》免費(fèi)領(lǐng) 立省139元
- 雷軍辟謠只招聘35歲以下員工:僅針對(duì)未來(lái)之星項(xiàng)目
- 普華永道發(fā)布2025年AI預(yù)測(cè):AI Agents將勞動(dòng)力提升1倍
- 雷軍回應(yīng)股價(jià)暴跌:年年難過(guò)年年過(guò)
- 一天100座!理想汽車(chē)第1700座超充站正式建成
- 《守望先鋒》國(guó)服宣布2月19日回歸:賬號(hào)數(shù)據(jù)完整保留
- 雷軍建議創(chuàng)業(yè)者要多留點(diǎn)錢(qián)給員工:別到山窮水盡才講問(wèn)題
- 雷軍新年第一天收到200元紅包 自侃年入百萬(wàn)的開(kāi)始
- 雷軍親自展示REDMI Turbo 4!2025年第一款新機(jī)
- 雷軍:小米未來(lái)10年建至少20座世界頂級(jí)工廠
- 雷軍辟謠只招聘35歲以下員工:只有招聘未來(lái)之星時(shí)才有年齡限制
- 雷軍回應(yīng)100億造車(chē):沒(méi)有好到“封神” 不要神話我
- 雷軍表態(tài):一心做好小米汽車(chē) 大家可以在“許愿池”尋找商機(jī)
- 雷軍:中國(guó)汽車(chē)產(chǎn)業(yè)應(yīng)少些歪門(mén)邪道 不要發(fā)黑稿、背后捅刀子
- 小米SU7選配色都是7000元 為什么璀璨洋紅卻需要9000元
-
奔馳GLE作為豪華SUV市場(chǎng)中的佼佼者,憑借其卓越的性能、豪華的內(nèi)飾以及寬敞的空間,吸引了眾多消費(fèi)者的關(guān)注。...瀏覽全文>>
-
在2025年,安徽阜陽(yáng)地區(qū)的帕薩特新能源汽車(chē)市場(chǎng)表現(xiàn)非?;钴S。作為一款備受關(guān)注的新能源車(chē)型,帕薩特新能源憑...瀏覽全文>>
-
近日,滁州地區(qū)的大眾汽車(chē)經(jīng)銷(xiāo)商傳來(lái)好消息:備受矚目的2025款T-ROC探歌正式上市,并且以極具競(jìng)爭(zhēng)力的價(jià)格吸引...瀏覽全文>>
-
在選擇一款新能源汽車(chē)時(shí),了解其價(jià)格和配置是非常重要的一步。安徽淮南地區(qū)的長(zhǎng)安啟源E07作為2024款的新車(chē)型,...瀏覽全文>>
-
阜陽(yáng)長(zhǎng)安啟源A05作為長(zhǎng)安汽車(chē)旗下的全新車(chē)型,自推出以來(lái)便憑借其獨(dú)特的設(shè)計(jì)風(fēng)格和豐富的配置吸引了眾多消費(fèi)者...瀏覽全文>>
-
阜陽(yáng)長(zhǎng)安啟源A07作為一款備受矚目的新能源車(chē)型,以其豪華配置和親民的價(jià)格在市場(chǎng)上引起了廣泛關(guān)注。這款車(chē)型不...瀏覽全文>>
-
安徽淮南威然2024款價(jià)格及配置詳解隨著汽車(chē)市場(chǎng)的不斷更新?lián)Q代,上汽大眾旗下的MPV車(chē)型——威然(Viloran)憑...瀏覽全文>>
-
QQ多米新車(chē)報(bào)價(jià)2025款,買(mǎi)車(chē)省錢(qián)秘籍隨著汽車(chē)市場(chǎng)的不斷發(fā)展,消費(fèi)者在選購(gòu)車(chē)輛時(shí)不僅關(guān)注車(chē)型的性能和配置,...瀏覽全文>>
-
滁州途觀X 2024款最新價(jià)格及買(mǎi)車(chē)省錢(qián)秘籍隨著汽車(chē)市場(chǎng)的不斷發(fā)展,大眾途觀X作為一款兼具時(shí)尚與性能的中型SUV...瀏覽全文>>
-
隨著汽車(chē)市場(chǎng)的不斷發(fā)展,大眾蔚攬以其優(yōu)雅的設(shè)計(jì)和卓越的性能贏得了眾多消費(fèi)者的青睞。作為一款兼具實(shí)用性和...瀏覽全文>>
- Alienware 在 2025 年 CES 上展示了一些超凡脫俗的技術(shù)
- Wickes 任命首席零售和分銷(xiāo)官
- 分析師稱GTA 6或?qū)?shù)立行業(yè)新標(biāo)準(zhǔn)
- 索尼和本田在拉斯維加斯推出售價(jià) 89,900 美元的 Afeela 1
- 日本 11 月游客人數(shù)創(chuàng)月度新高
- 神經(jīng)認(rèn)知測(cè)試在 3 歲兒童白血病治療期間可行
- 牛津郡小學(xué)支持圣誕毛衣日
- S?strene Grene 投資歐洲物流中心
- 有人已經(jīng)在電視上直播 BNMC 打造的 1967 年福特野馬 Restomod
- 潛在的分子療法可以逆轉(zhuǎn)小鼠的胎盤(pán)發(fā)育問(wèn)題
- 奔馳GLE預(yù)約試駕,新手必看的詳細(xì)流程
- 滁州T-ROC探歌 2025新款價(jià)格,最低售價(jià)15.89萬(wàn)起,趕緊行動(dòng)
- 安徽淮南威然最新價(jià)格2024款,各配置車(chē)型售價(jià)全知曉
- 滁州途觀X最新價(jià)格2024款,買(mǎi)車(chē)省錢(qián)秘籍
- 淮南長(zhǎng)安啟源Q05 2025新款價(jià)格,最低售價(jià)9.69萬(wàn)起,入手正當(dāng)時(shí)
- 安徽淮南探影多少錢(qián) 2023款落地價(jià),各配置車(chē)型售價(jià)一目了然
- 淮南途觀X價(jià)格大揭秘,買(mǎi)車(chē)前必看
- 安徽淮南長(zhǎng)安獵手K50新款價(jià)格2025款多少錢(qián)?買(mǎi)車(chē)攻略一網(wǎng)打盡
- 滁州ID.4 X新款價(jià)格2025款多少錢(qián)?買(mǎi)車(chē)攻略一網(wǎng)打盡
- QQ多米落地價(jià),購(gòu)車(chē)前必看的費(fèi)用明細(xì)
- Nvidia DLSS 4 有望將游戲性能提高 8 倍
- 人工智能在預(yù)測(cè)自身免疫性疾病進(jìn)展方面顯示出良好的前景
- 心理物理實(shí)驗(yàn)揭示皮膚水分感知是如何改變的
- 科茨沃爾德公司慶祝圣誕節(jié)圓滿成功
- 南法納姆學(xué)校被評(píng)為薩里郡表現(xiàn)最好的小學(xué)
- 約克區(qū)九所小學(xué)將削減招生人數(shù)
- 松下新款電動(dòng)汽車(chē)電池為 Lucid Gravity 帶來(lái) 450 英里續(xù)航里程
- 泰國(guó)旅游呈現(xiàn)新趨勢(shì)
- 研究人員找到在細(xì)胞水平上餓死前列腺癌腫瘤的新方法
- 領(lǐng)先的人工智能聊天機(jī)器人在測(cè)試中表現(xiàn)出類(lèi)似癡呆癥的認(rèn)知能力下降
- 龐大的 Project Zomboid build 42 終于可以玩了
- Steam Replay 回歸向您展示 2024 年您玩得最多的 PC 游戲
- Jollyes 推出強(qiáng)化的人才支持和招聘措施
- Karen Millen 與 Simon Harrison 共同推出全新高級(jí)珠寶系列
- 奇瑞風(fēng)云A8L電動(dòng)轎車(chē)刷新續(xù)航里程世界紀(jì)錄
- 虛擬藝術(shù)家將別克 Cascada 帶回 2026 款車(chē)型
- OnePlus 宣布推出新計(jì)劃解決綠線問(wèn)題
- OnePlus Watch 3 將擁有更大的電池和更薄的機(jī)身
- 研究人員發(fā)現(xiàn)可變剪接與自身免疫性疾病遺傳之間的細(xì)胞類(lèi)型特異性聯(lián)系
- 科學(xué)家確定腦細(xì)胞類(lèi)型是排尿的主要控制者