拯救被「掰彎」的GPT-4!西交微軟北大聯(lián)合提出IN2訓(xùn)練治療LLM「中間迷失」
相信很多大家對(duì)拯救被「掰彎」的GPT-4!西交微軟北大聯(lián)合提出IN2訓(xùn)練治療LLM「中間迷失」還不知道吧,今天菲菲就帶你們一起去了解一下~.~!
【新智元導(dǎo)讀】近日,西交微軟北大聯(lián)合提出信息密集型訓(xùn)練大法,使用純數(shù)據(jù)驅(qū)動(dòng)的方式,矯正LLM訓(xùn)練過程產(chǎn)生的偏見,在一定程度上治療了大語言模型丟失中間信息的問題。
辛辛苦苦給大語言模型輸入了一大堆提示,它卻只記住了開頭和結(jié)尾?
這個(gè)現(xiàn)象叫做LLM的中間迷失(Lost in the Middle),是大模型當(dāng)前仍面臨的最大挑戰(zhàn)之一。
畢竟,LLM現(xiàn)在的上下文長(zhǎng)度已經(jīng)沖到了百萬級(jí)別,而難以處理中間的信息,會(huì)使得LLM在評(píng)估大量數(shù)據(jù)時(shí)不再可靠。
其實(shí),我們?nèi)祟愐灿蓄愃啤钢虚g迷失」的毛病,心理學(xué)上叫「Primacy/recency effect」,感興趣的讀者可以參見:
https://www.sciencedirect.com/topics/psychology/recency-effect
「我怕零點(diǎn)的鐘聲太響......后面忘了」
不過就在不久前,來自西交、微軟和北大的研究人員,開發(fā)了一種純粹的數(shù)據(jù)驅(qū)動(dòng)解決方案,來治療LLM丟失中間信息的癥狀:
論文地址:https://arxiv.org/pdf/2404.16811
研究人員認(rèn)為,Lost in the Middle的原因是訓(xùn)練數(shù)據(jù)中的無意偏差。
因?yàn)長(zhǎng)LM的預(yù)訓(xùn)練側(cè)重于根據(jù)最近的一些token預(yù)測(cè)下一個(gè)token,而在微調(diào)過程中,真正的指令又往往位于上下文開始的位置。
這在不知不覺中引入了一種立場(chǎng)偏見,讓LLM認(rèn)為重要信息總是位于上下文的開頭和結(jié)尾。
基于這樣的見解,研究人員提出了信息密集型(INformation-INtensive,IN2)訓(xùn)練方法,來建立數(shù)據(jù)之間的橋梁。
既然是訓(xùn)練過程造成的偏見,那么就用訓(xùn)練數(shù)據(jù)來解決。
IN2訓(xùn)練使用合成問答數(shù)據(jù),向模型顯式指出重要信息可以位于上下文中的任何位置。
整個(gè)上下文長(zhǎng)度(4K-32K個(gè)token),被分為許多128個(gè)token的片段,而答案所對(duì)應(yīng)的信息位于隨機(jī)位置的片段中。
研究人員使用了兩種類型的訓(xùn)練問題:一種是要求在一個(gè)片段中提供細(xì)節(jié),另一種是需要整合和推斷來自多個(gè)片段的信息。
IN2訓(xùn)練到底效果如何?使用明星模型Mistral-7B來試試。
將IN2訓(xùn)練應(yīng)用于Mistral-7B,得到了新模型FILM-7B(FILl-in-the-Middle),然后測(cè)試為長(zhǎng)上下文設(shè)計(jì)的三個(gè)新的提取任務(wù)。
測(cè)試任務(wù)涵蓋不同的上下文類型(文檔、代碼、結(jié)構(gòu)化數(shù)據(jù))和搜索模式(向前、向后、雙向)。
結(jié)果表明,IN2顯著降低了原始Mistral模型的「中間丟失」問題。更厲害的是,作為只有7B的模型,F(xiàn)ILM的性能在很多情況下甚至超越了GPT-4Turbo。
在保持自己執(zhí)行短上下文任務(wù)能力的同時(shí),F(xiàn)ILM-7B在各種長(zhǎng)上下文任務(wù)中也表現(xiàn)出色,例如總結(jié)長(zhǎng)文本,回答有關(guān)長(zhǎng)文檔的問題,以及對(duì)多個(gè)文檔的推理。
上表是不同模型在現(xiàn)實(shí)的長(zhǎng)上下文任務(wù)中的表現(xiàn)。與本體Mistral-7B 相比,INformation-INtensive (IN2) 訓(xùn)練帶來的提升很明顯,F(xiàn)ILM-7B的綜合成績(jī)僅次于GPT-4Turbo。
不過有一說一,Lost in the Middle的問題并沒有完全解決,而且在長(zhǎng)上下文存在問題的情況下,GPT-4Turbo也仍然是上下文基準(zhǔn)中最強(qiáng)的模型。
Lost in the Middle
LLM丟失中間信息的問題最早由斯坦福、UC伯克利和Samaya AI的研究人員在去年發(fā)現(xiàn)。
論文地址:https://arxiv.org/pdf/2307.03172
當(dāng)面對(duì)較長(zhǎng)的信息流時(shí),人類傾向于記住開頭和結(jié)尾,中間的內(nèi)容更容易被忽視。
沒想到LLM也學(xué)會(huì)了這個(gè)套路:對(duì)于從輸入中檢索信息的任務(wù),當(dāng)信息位于輸入的開頭或結(jié)尾時(shí),模型的表現(xiàn)最好。
但是,當(dāng)相關(guān)信息位于輸入的中間時(shí),性能會(huì)顯著下降。尤其是在回答需要從多個(gè)文檔中提取信息的問題時(shí),性能下降尤為明顯。
——真是干啥啥不行,偷懶第一名。
模型必須同時(shí)處理的輸入越多,其性能往往越差?!趯?shí)際得應(yīng)用場(chǎng)景中,往往就是需要LLM同時(shí)均勻地處理大量信息。
另外,研究結(jié)果還表明,大型語言模型使用額外信息的效率是有限的,具有特別詳細(xì)指令的「大型提示」可能弊大于利。
對(duì)于許多長(zhǎng)上下文LLM,中間信息丟失的現(xiàn)象普遍存在。上表測(cè)試了當(dāng)時(shí)市面上流行的各種款式LLM,包括GPT-4,一共是七種。
可以看出,不論是開源還是閉源模型的強(qiáng)者,測(cè)試結(jié)果都顯示出明顯的U形曲線,說明都是在兩頭效果好,而中間就拉跨了。
即使強(qiáng)如GPT-4,也難逃被「掰彎」的命運(yùn)。
這也不禁讓人質(zhì)疑:你們這些卷超長(zhǎng)上下文的模型到底有沒有用啊?不但吃得多,中間信息也記不住。
信息密集型訓(xùn)練大法
為了明確教導(dǎo)模型,在長(zhǎng)上下文中的任何位置都可以包含關(guān)鍵信息。研究人員構(gòu)建了一個(gè)長(zhǎng)上下文問答訓(xùn)練數(shù)據(jù)集 D = {L,q,a},其中問題q的答案a,來自長(zhǎng)上下文L中的隨機(jī)位置。
下圖展示了整個(gè)數(shù)據(jù)構(gòu)建過程。具體來說,訓(xùn)練數(shù)據(jù)D基于通用自然語言語料庫C。給定一個(gè)原始文本,首先使用LLM(GPT-4-Turbo)生成一個(gè)問答對(duì) (q,a),然后合成一個(gè)長(zhǎng)上下文 L,其中包括來自C的其他隨機(jī)抽樣文本的必要信息。
上圖包含兩種類型的問答對(duì):(1)對(duì)長(zhǎng)上下文中細(xì)粒度信息的掌握;(2)對(duì)長(zhǎng)上下文中不同位置出現(xiàn)的信息進(jìn)行整合和推理。
細(xì)粒度信息感知將包含128個(gè)token的段視為上下文的最小信息單元。給定一個(gè)原始文本C,首先從中隨機(jī)提取一個(gè)128個(gè)token的段s,然后生成q、a和 L:
信息整合和推理除了利用每個(gè)片段之外,研究人員還考慮為兩個(gè)或多個(gè)片段中包含的信息生成問答對(duì)。
按照上面最小信息單元的設(shè)置,同樣將全文拆分為一組128個(gè)token的段 [s],然后相應(yīng)地生成 q、a和L:
使用LLM生成多跳問答對(duì),保證每個(gè)問題對(duì)應(yīng)的答案至少需要兩個(gè)段內(nèi)的信息。
訓(xùn)練整個(gè)訓(xùn)練數(shù)據(jù)集包含:1.1M用于細(xì)粒度信息感知的長(zhǎng)上下文數(shù)據(jù)(~63%)、300K用于信息整合和推理的長(zhǎng)上下文數(shù)據(jù)(~17%)、150K短上下文問答數(shù)據(jù)(~9%)和200K通用指令調(diào)整數(shù)據(jù)(~11%)。
使用上面構(gòu)建的訓(xùn)練數(shù)據(jù),研究人員對(duì)Mistral-7B-Instruct-v0.2執(zhí)行 IN2訓(xùn)練:將長(zhǎng)上下文和問題作為指令,并使用答案部分的損失來更新模型。
超參數(shù):將全局批處理大小設(shè)置為128,使用余弦學(xué)習(xí)率衰減,最大值為1e-6。
模型訓(xùn)練在16個(gè)80G A100GPU上進(jìn)行,采用由pytorch FSDP實(shí)現(xiàn)的完整分片策略和cpu卸載策略,整個(gè)訓(xùn)練過程耗時(shí)大約18天。
VAL 探測(cè)研究人員提出了VAL探測(cè)方法,作為評(píng)估語言模型上下文性能的更合適的方法,涵蓋了不同的上下文風(fēng)格和檢索模式,以進(jìn)行更徹底的評(píng)估。
下圖表示VAL探測(cè)中的三個(gè)任務(wù)。檢索模式由檢索關(guān)鍵字與要檢索的信息之間的相對(duì)位置決定。
這里考慮了三種上下文樣式(文檔、代碼和結(jié)構(gòu)化數(shù)據(jù)上下文)和三種檢索模式(前向、后向和雙向檢索)。
VAL探測(cè)中的每個(gè)上下文都包含約32K個(gè)token,每個(gè)任務(wù)包含約3K個(gè)示例。
文檔句子檢索(雙向):上下文由許多自然語言句子組成,目的是檢索包含給定片段的單個(gè)句子。這些句子是從arXiv上的論文摘要中抽取的。
此任務(wù)遵循雙向檢索模式,因?yàn)轭A(yù)期的檢索結(jié)果包含上下文中給定片段之前和之后的單詞。評(píng)估指標(biāo)是單詞級(jí)別的召回率分?jǐn)?shù)。
代碼函數(shù)檢索(向后):上下文由Python函數(shù)組成,目的是檢索函數(shù)定義中給定代碼行的函數(shù)名稱。原始代碼函數(shù)是從StarCoder數(shù)據(jù)集中采樣的,并為每個(gè)函數(shù)隨機(jī)選擇三行定義。
此任務(wù)遵循向后檢索模式,因?yàn)楹瘮?shù)名稱始終位于定義之前。評(píng)估指標(biāo)是匹配精度。
數(shù)據(jù)庫實(shí)體檢索(向前):上下文包含結(jié)構(gòu)化實(shí)體列表,每個(gè)實(shí)體都有三個(gè)字段:ID、label和description,目的是檢索給定ID的標(biāo)簽和說明。這些實(shí)體是從維基百科數(shù)據(jù)中采樣的。
此任務(wù)遵循正向檢索模式,因?yàn)闃?biāo)簽和說明跟隨ID。以寬松的匹配準(zhǔn)確性作為衡量標(biāo)準(zhǔn):如果響應(yīng)中的標(biāo)簽或描述完全匹配,則給出1分,否則為0分。
以上就是關(guān)于【拯救被「掰彎」的GPT-4!西交微軟北大聯(lián)合提出IN2訓(xùn)練治療LLM「中間迷失」】的相關(guān)內(nèi)容,希望對(duì)大家有幫助!
免責(zé)聲明:本文由用戶上傳,與本網(wǎng)站立場(chǎng)無關(guān)。財(cái)經(jīng)信息僅供讀者參考,并不構(gòu)成投資建議。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。 如有侵權(quán)請(qǐng)聯(lián)系刪除!
- 董明珠曾喊話雷軍給股民分多少錢!格力:擬分紅超55億
- Epic喜+1:動(dòng)作游戲《師父》免費(fèi)領(lǐng) 立省139元
- 雷軍辟謠只招聘35歲以下員工:僅針對(duì)未來之星項(xiàng)目
- 普華永道發(fā)布2025年AI預(yù)測(cè):AI Agents將勞動(dòng)力提升1倍
- 雷軍回應(yīng)股價(jià)暴跌:年年難過年年過
- 一天100座!理想汽車第1700座超充站正式建成
- 《守望先鋒》國(guó)服宣布2月19日回歸:賬號(hào)數(shù)據(jù)完整保留
- 雷軍建議創(chuàng)業(yè)者要多留點(diǎn)錢給員工:別到山窮水盡才講問題
-
奔馳GLE作為豪華SUV市場(chǎng)中的佼佼者,憑借其卓越的性能、豪華的內(nèi)飾以及寬敞的空間,吸引了眾多消費(fèi)者的關(guān)注。...瀏覽全文>>
-
在2025年,安徽阜陽地區(qū)的帕薩特新能源汽車市場(chǎng)表現(xiàn)非?;钴S。作為一款備受關(guān)注的新能源車型,帕薩特新能源憑...瀏覽全文>>
-
近日,滁州地區(qū)的大眾汽車經(jīng)銷商傳來好消息:備受矚目的2025款T-ROC探歌正式上市,并且以極具競(jìng)爭(zhēng)力的價(jià)格吸引...瀏覽全文>>
-
在選擇一款新能源汽車時(shí),了解其價(jià)格和配置是非常重要的一步。安徽淮南地區(qū)的長(zhǎng)安啟源E07作為2024款的新車型,...瀏覽全文>>
-
阜陽長(zhǎng)安啟源A05作為長(zhǎng)安汽車旗下的全新車型,自推出以來便憑借其獨(dú)特的設(shè)計(jì)風(fēng)格和豐富的配置吸引了眾多消費(fèi)者...瀏覽全文>>
-
阜陽長(zhǎng)安啟源A07作為一款備受矚目的新能源車型,以其豪華配置和親民的價(jià)格在市場(chǎng)上引起了廣泛關(guān)注。這款車型不...瀏覽全文>>
-
安徽淮南威然2024款價(jià)格及配置詳解隨著汽車市場(chǎng)的不斷更新?lián)Q代,上汽大眾旗下的MPV車型——威然(Viloran)憑...瀏覽全文>>
-
QQ多米新車報(bào)價(jià)2025款,買車省錢秘籍隨著汽車市場(chǎng)的不斷發(fā)展,消費(fèi)者在選購(gòu)車輛時(shí)不僅關(guān)注車型的性能和配置,...瀏覽全文>>
-
滁州途觀X 2024款最新價(jià)格及買車省錢秘籍隨著汽車市場(chǎng)的不斷發(fā)展,大眾途觀X作為一款兼具時(shí)尚與性能的中型SUV...瀏覽全文>>
-
隨著汽車市場(chǎng)的不斷發(fā)展,大眾蔚攬以其優(yōu)雅的設(shè)計(jì)和卓越的性能贏得了眾多消費(fèi)者的青睞。作為一款兼具實(shí)用性和...瀏覽全文>>
- Alienware 在 2025 年 CES 上展示了一些超凡脫俗的技術(shù)
- Wickes 任命首席零售和分銷官
- 分析師稱GTA 6或?qū)淞⑿袠I(yè)新標(biāo)準(zhǔn)
- 索尼和本田在拉斯維加斯推出售價(jià) 89,900 美元的 Afeela 1
- 日本 11 月游客人數(shù)創(chuàng)月度新高
- 神經(jīng)認(rèn)知測(cè)試在 3 歲兒童白血病治療期間可行
- 牛津郡小學(xué)支持圣誕毛衣日
- S?strene Grene 投資歐洲物流中心
- 有人已經(jīng)在電視上直播 BNMC 打造的 1967 年福特野馬 Restomod
- 潛在的分子療法可以逆轉(zhuǎn)小鼠的胎盤發(fā)育問題
- 奔馳GLE預(yù)約試駕,新手必看的詳細(xì)流程
- 滁州T-ROC探歌 2025新款價(jià)格,最低售價(jià)15.89萬起,趕緊行動(dòng)
- 安徽淮南威然最新價(jià)格2024款,各配置車型售價(jià)全知曉
- 滁州途觀X最新價(jià)格2024款,買車省錢秘籍
- 淮南長(zhǎng)安啟源Q05 2025新款價(jià)格,最低售價(jià)9.69萬起,入手正當(dāng)時(shí)
- 安徽淮南探影多少錢 2023款落地價(jià),各配置車型售價(jià)一目了然
- 淮南途觀X價(jià)格大揭秘,買車前必看
- 安徽淮南長(zhǎng)安獵手K50新款價(jià)格2025款多少錢?買車攻略一網(wǎng)打盡
- 滁州ID.4 X新款價(jià)格2025款多少錢?買車攻略一網(wǎng)打盡
- QQ多米落地價(jià),購(gòu)車前必看的費(fèi)用明細(xì)
- Nvidia DLSS 4 有望將游戲性能提高 8 倍
- 人工智能在預(yù)測(cè)自身免疫性疾病進(jìn)展方面顯示出良好的前景
- 心理物理實(shí)驗(yàn)揭示皮膚水分感知是如何改變的
- 科茨沃爾德公司慶祝圣誕節(jié)圓滿成功
- 南法納姆學(xué)校被評(píng)為薩里郡表現(xiàn)最好的小學(xué)
- 約克區(qū)九所小學(xué)將削減招生人數(shù)
- 松下新款電動(dòng)汽車電池為 Lucid Gravity 帶來 450 英里續(xù)航里程
- 泰國(guó)旅游呈現(xiàn)新趨勢(shì)
- 研究人員找到在細(xì)胞水平上餓死前列腺癌腫瘤的新方法
- 領(lǐng)先的人工智能聊天機(jī)器人在測(cè)試中表現(xiàn)出類似癡呆癥的認(rèn)知能力下降
- 龐大的 Project Zomboid build 42 終于可以玩了
- Steam Replay 回歸向您展示 2024 年您玩得最多的 PC 游戲
- Jollyes 推出強(qiáng)化的人才支持和招聘措施
- Karen Millen 與 Simon Harrison 共同推出全新高級(jí)珠寶系列
- 奇瑞風(fēng)云A8L電動(dòng)轎車刷新續(xù)航里程世界紀(jì)錄
- 虛擬藝術(shù)家將別克 Cascada 帶回 2026 款車型
- OnePlus 宣布推出新計(jì)劃解決綠線問題
- OnePlus Watch 3 將擁有更大的電池和更薄的機(jī)身
- 研究人員發(fā)現(xiàn)可變剪接與自身免疫性疾病遺傳之間的細(xì)胞類型特異性聯(lián)系
- 科學(xué)家確定腦細(xì)胞類型是排尿的主要控制者