IT之家 7 月 3 日消息,臺媒《工商時報》消息,英偉達 H200 上游芯片端于二季度下旬起進入量產(chǎn)期,預計在三季度以后開始大規(guī)模交付。
據(jù)IT之家此前報道,OpenAI 4 月在舊金山舉辦了一場研討會,英偉達首席執(zhí)行官黃仁勛親自出席,共同宣布交付第一臺 Nvidia DGX H200。
H200 作為 H100 的迭代升級產(chǎn)品,基于 Hopper 架構,首次采用了 HBM3e 高帶寬內(nèi)存技術,實現(xiàn)了更快的數(shù)據(jù)傳輸速度和更大的內(nèi)存容量,對大型語言模型應用表現(xiàn)出顯著優(yōu)勢。
根據(jù)英偉達官方發(fā)布的數(shù)據(jù),在處理諸如 Meta 公司 Llama2 這樣的復雜大語言模型時,H200 相較于 H100 在生成式 AI 輸出響應速度上最高提升了 45%。
供應鏈指出,目前待出貨的客戶端訂單仍多集中于 HGX 架構的 H100,H200 比重有限,因采用配貨制,目前各家終端系統(tǒng)合作伙伴的出貨主力 H100 GPU,到貨時間最長仍可能達 20 周。
消息稱 B100 將于明年上半年出貨。英偉達 CEO 黃仁勛此前表示,從 B100 開始未來所有產(chǎn)品的散熱技術都將由風冷轉為液冷。英偉達 H200 GPU 的 TDP 為 700W,保守估計 B100 的 TDP 接近千瓦,傳統(tǒng)風冷不能滿足芯片工作過程中對于散熱需求,散熱技術將全面向液冷革新。
廣告聲明:文內(nèi)含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。