最新亚洲人成无码网站,夜夜操夜夜操夜夜爽,中文字日产幕乱五区,在线成人看片黄a免费看,亚洲自偷自拍另类11p

首頁 >> 今日更新 >

大型科技公司擁才有承擔 AI 訓練數(shù)據(jù)成本的能力

2024-06-03 10:01:06 來源: 用戶: 

相信很多大家對大型科技公司擁才有承擔 AI 訓練數(shù)據(jù)成本的能力還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

站長之家(ChinaZ.com)6月3日 消息:AI 的發(fā)展離不開數(shù)據(jù),而這種數(shù)據(jù)的成本越來越高,這使得除了最富有的科技公司外,其他公司難以承擔這一成本。根據(jù)去年 OpenAI 的研究人員 James Betker 的文章,AI 模型的訓練數(shù)據(jù)是決定模型能力的關鍵因素。傳統(tǒng)的 AI 系統(tǒng)主要是基于統(tǒng)計機器,通過大量示例來猜測最 “合理” 的數(shù)據(jù)分布,因此模型所依賴的數(shù)據(jù)量越大,性能就越好。

AI 研究非營利機構 AI2的高級研究科學家 Kyle Lo 指出,Meta 的 Llama3模型在數(shù)據(jù)量方面明顯優(yōu)于 AI2的 OLMo 模型,這解釋了其在許多流行 AI 基準測試中的優(yōu)勢。然而,并不是數(shù)據(jù)量越大,模型性能就會線性提升,數(shù)據(jù)質量和整理同樣重要,有時甚至比數(shù)量更重要。一些 AI 模型是通過讓人類標注數(shù)據(jù)來進行訓練的,質量較高的標注對模型性能有巨大影響。

然而,Lo 等專家擔心,對大型、高質量訓練數(shù)據(jù)集的需求將 AI 發(fā)展集中在少數(shù)具備數(shù)十億美元預算的公司手中。盡管一些非法甚至犯罪行為可能會對數(shù)據(jù)獲取方式提出質疑,但技術巨頭憑借資金實力能夠獲取數(shù)據(jù)許可。這些數(shù)據(jù)交易的過程并未促進一個公平開放的生成式 AI 生態(tài)系統(tǒng),讓整個 AI 研究社區(qū)備受其害。

一些獨立、非營利性的組織嘗試開放大規(guī)模數(shù)據(jù)集,如 EleutherAI 和 Hugging Face,但它們是否能趕上大型科技公司的步伐仍是一個未知數(shù)。只有當研究突破技術壁壘,數(shù)據(jù)收集和整理成本不再是問題時,這些開放性的數(shù)據(jù)集才有希望與科技巨頭競爭。

以上就是關于【大型科技公司擁才有承擔 AI 訓練數(shù)據(jù)成本的能力】的相關內(nèi)容,希望對大家有幫助!

  免責聲明:本文由用戶上傳,與本網(wǎng)站立場無關。財經(jīng)信息僅供讀者參考,并不構成投資建議。投資者據(jù)此操作,風險自擔。 如有侵權請聯(lián)系刪除!

 
分享:
最新文章