IT之家 6 月 11 日消息,俄羅斯科技巨頭 Yandex 推出了一款開源的大語言模型訓(xùn)練工具 ——YaFSDP,號(hào)稱與現(xiàn)有工具相比速度最高可提升 26%。
據(jù)介紹,YaFSDP 在訓(xùn)練速度方面優(yōu)于傳統(tǒng)的 FSDP 方法,尤其適用于大型模型。在預(yù)訓(xùn)練 LLM 方面,YaFSDP 速度提高了 20%,并且在高內(nèi)存壓力條件下表現(xiàn)更佳。
例如,YaFSDP 對(duì)具有 700 億參數(shù)的 Llama 2 可以實(shí)現(xiàn) 21% 的效率提升,對(duì)具有同級(jí)參數(shù)的 Llama 3 也實(shí)現(xiàn) 了 26% 的效率提升。IT之家附官方數(shù)據(jù)一覽:
模型 | gpu-count | seq-len | num-ckpt-layers | speedup |
---|---|---|---|---|
Llama 2 7B | 64 | 2048 | 0 | 9.92% |
Llama 2 7B | 64 | 4096 | 0 | 3.43% |
Llama 2 7B | 64 | 8192 | 0 | 2.68% |
Llama 2 7B | 128 | 2048 | 0 | 9.57% |
Llama 2 7B | 128 | 4096 | 0 | 2.42% |
Llama 2 7B | 128 | 8192 | 0 | 2.32% |
Llama 2 13B | 128 | 2048 | 0 | 12.10% |
Llama 2 13B | 128 | 4096 | 0 | 3.49% |
Llama 2 34B | 128 | 2048 | 0 | 20.70% |
Llama 2 34B | 256 | 2048 | 0 | 21.99% |
Llama 2 34B | 256 | 4096 | 5 | 8.35% |
Llama 2 70B | 256 | 2048 | 10 | 21.48% |
Llama 2 70B | 256 | 4096 | 50 | 7.17% |
Llama 3 8B | 64 | 2048 | 0 | 11.91% |
Llama 3 8B | 64 | 4096 | 0 | 7.86% |
Llama 3 70B | 256 | 2048 | 20 | 26.60% |
Yandex 表示,通過優(yōu)化 GPU 使用率,YaFSDP 可以為開發(fā)者和公司節(jié)省大量資金 —— 每月可能節(jié)省數(shù)十萬美元。
Yandex 的資深開發(fā)人員、YaFSDP 團(tuán)隊(duì)成員之一 Mikhail Khruschev 還提到,“目前,我們正在積極嘗試各種模型架構(gòu)和參數(shù)大小,以擴(kuò)展 YaFSDP 的通用性” 。
參考資料:
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。