設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色
比亚迪秦 L EV 上市,11.98 万-13.98 万元    苹果 CEO 库克现身北京

英偉達秀 Blackwell GPU 肌肉:訓練 AI 模型速度比 Hopper H100 快 2.2 倍

2024/11/14 8:33:16 來源:IT之家 作者:故淵 責編:故淵
感謝IT之家網(wǎng)友 華南吳彥祖 的線索投遞!

IT之家 11 月 14 日消息,科技媒體 WccfTech 昨日(11 月 13 日)發(fā)布博文,報道稱英偉達首次公布了 Blackwell GPU 在 MLPerf v4.1 AI 訓練工作負載中的成績,在訓練 Llama 2 70B (Fine-Tuning) 模型時比 Hopper 快 2.2 倍。

測試簡介

英偉達于今年 8 月,首次公布了 Blackwell GPU 在 MLPerf v4.1 AI 推理方面的基準測試成績,而今天首次公布了該 GPU 在 MLPerf v4.1 AI 訓練工作負載方面的測試成績。

NVIDIA 表示,隨著新模型的推出,AI 領域對計算的需求正在以指數(shù)級增長,因此需要大幅提升訓練和推理 AI 的能力,IT之家附上本次訓練工作負載主要使用的模型如下:

  • Llama 2 70B(LLM 微調(diào))

  • Stable Diffusion(文本到圖像)

  • DLRMv2(推薦系統(tǒng))

  • BERT(自然語言處理)

  • RetinaNet(目標檢測)

  • GPT-3 175B(LLM 預訓練)

  • R-GAT(圖神經(jīng)網(wǎng)絡)

這些工作負載的基準測試為評估 AI 加速器的訓練性能提供了準確的數(shù)據(jù)支持。

Hopper GPU 的持續(xù)優(yōu)化

Hopper GPU 自發(fā)布以來,經(jīng)過持續(xù)的軟件優(yōu)化,性能得到了顯著提升。H100 GPU 在 LLM 預訓練性能上比首次提交時快了 1.3 倍,并且在 GPT-3(175B 訓練)中實現(xiàn)了 70% 的性能提升。

英偉達利用 11616 個 H100 GPU 進行了 MLPerf 的最大規(guī)模提交,進一步證明了其在數(shù)據(jù)中心級別的強大能力。

Blackwell 的技術優(yōu)勢

Blackwell GPU 的設計旨在提高每個 GPU 的計算吞吐量,配備更大更快的高帶寬內(nèi)存,不降低性能的前提下,能夠在更少的 GPU 上運行 GPT-3 175B 基準測試。

根據(jù)測試結果,64 張 Blackwell GPU 的測試性能,可以達到 256 張 Hopper GPU 的水平。

廣告聲明:文內(nèi)含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。

相關文章

關鍵詞:Blackwell,GPU英偉達
  • 日榜
  • 周榜
  • 月榜

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知