設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

俄羅斯科技巨頭 Yandex 宣布開源“YaFSDP”大語言模型訓(xùn)練工具:大幅提升 GPU 利用率,對(duì) Llama 3 可實(shí)現(xiàn) 26% 加速

2024/6/11 18:03:24 來源:IT之家 作者:問舟 責(zé)編:問舟

IT之家 6 月 11 日消息,俄羅斯科技巨頭 Yandex 推出了一款開源的大語言模型訓(xùn)練工具 ——YaFSDP,號(hào)稱與現(xiàn)有工具相比速度最高可提升 26%。

據(jù)介紹,YaFSDP 在訓(xùn)練速度方面優(yōu)于傳統(tǒng)的 FSDP 方法,尤其適用于大型模型。在預(yù)訓(xùn)練 LLM 方面,YaFSDP 速度提高了 20%,并且在高內(nèi)存壓力條件下表現(xiàn)更佳。

例如,YaFSDP 對(duì)具有 700 億參數(shù)的 Llama 2 可以實(shí)現(xiàn) 21% 的效率提升,對(duì)具有同級(jí)參數(shù)的 Llama 3 也實(shí)現(xiàn) 了 26% 的效率提升。IT之家附官方數(shù)據(jù)一覽:

模型gpu-countseq-lennum-ckpt-layersspeedup
Llama 2 7B64204809.92%
Llama 2 7B64409603.43%
Llama 2 7B64819202.68%
Llama 2 7B128204809.57%
Llama 2 7B128409602.42%
Llama 2 7B128819202.32%
Llama 2 13B1282048012.10%
Llama 2 13B128409603.49%
Llama 2 34B1282048020.70%
Llama 2 34B2562048021.99%
Llama 2 34B256409658.35%
Llama 2 70B25620481021.48%
Llama 2 70B2564096507.17%
Llama 3 8B642048011.91%
Llama 3 8B64409607.86%
Llama 3 70B25620482026.60%

Yandex 表示,通過優(yōu)化 GPU 使用率,YaFSDP 可以為開發(fā)者和公司節(jié)省大量資金 —— 每月可能節(jié)省數(shù)十萬美元。

Yandex 的資深開發(fā)人員、YaFSDP 團(tuán)隊(duì)成員之一 Mikhail Khruschev 還提到,“目前,我們正在積極嘗試各種模型架構(gòu)和參數(shù)大小,以擴(kuò)展 YaFSDP 的通用性” 。

參考資料:

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:yandex,AI大模型

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知